Nombre
stringlengths
54
100
Transcripción
stringlengths
12.7k
85.9k
Autor
stringlengths
10
33
IA y Modelos del Lenguaje, retos y oportunidades con Elena González-Blanco @Microsoft | #Somos600M
Hola a todos. Soy María Grandury y os doy la bienvenida a la primera keynote de nuestro hackatón internacional de procesamiento de lenguaje natural open source en español. Hoy descubriremos los actuales retos y oportunidades de la inteligencia artificial y los modelos del lenguaje con Elena González Blanco, GEDO-BII, 4M Digital Natives y Microsoft. Recomendamos esta charla para todas las personas interesadas en la revolución de inteligencia artificial que estamos viviendo, dado que hoy inauguramos las charlas de especialistas. Voy a aprovechar para recordar en qué consiste este hackatón y después ya daré paso a Elena que ya está aquí en el backstage. El hackatón tiene por objetivo facilitar la creación de modelos que representan la diversidad de las personas disponibilizantes. En esta tercera edición nos sumamos a la revolución, no sólo de la IA, pero de los grandes modelos del lenguaje y fijamos dos objetivos que tienen un gran impacto. El primero de ellos es crear el mayor corpus de instrucciones en español y lenguas cooficiales que representen las grandes variedades habladas por los 600 millones de personas disponibilizantes, de tal manera que después con ese corpus podamos entrenar modelos inclusivos. Y el segundo objetivo que tenemos es crear la primera líder board pública de LLMS en español que nos permita estandarizar cómo evaluar y comparar los diferentes modelos en español y lenguas cooficiales. Las inscripciones siguen abiertas, o sea que invito a todas las personas independientemente de vuestros conocimientos a participar ya que hay tareas de todos los niveles. Habrá equipos, se puede participar en el nivel de la mente o hasta cinco personas y como siempre intentamos que los proyectos tengan un impacto social relacionados por ejemplo con los objetivos de desarrollo sostenible de la ONU. Y bueno además del hackatón pues tenemos Keynotes como la de hoy en la que especialistas del campo de la AIA nos irán contando su experiencia y compartiendo con nosotros todo su conocimiento para que también nos podamos enriquecer. Entonces vamos con la primera Keynote o la Elena ahora mismo ya te puede ver todo el mundo. Os presento a Elena aunque bueno, muchos de los presentes seguramente ya la conozcáis. Elena González Blanco tiene un perfil muy interesante porque combina academia e industria. Actualmente como dije antes es Head of the I for M. Digital Natives en Microsoft y profesora en la Universidad de Lien. Esco fundadora de Cleabrain y CleaDrive, miembro asesor de la Junta Directiva de varias empresas y también instituciones e instituciones de investigación y ha sido investigadora en diversas universidades como la UNED donde fundó el Laboratorio de Innovación en Humanidades Digitales. Entonces bueno bienvenida de nuevo Elena, muchísimas gracias por estar hoy aquí. Ahora me voy pero me quedo en el backstage entonces os iré leyendo a todas las personas presentes, podéis compartir vuestras comentarios, preguntas y yo al final de la presentación se las leo a Elena. Muy bien, eso es todo, muchísimas gracias y allá vamos, puedes compartir tu pantalla cuando quieras. Pues muchísimas gracias María, la verdad es que es un honor estar aquí esta tarde porque creo que los hackatones son muy importantes en esta industria de inteligencia artificial y de datos que nos movemos y además estoy muy orgullosa de ver que pues este es un hackatón en español que no es su primera edición sino que cada vez va cogiendo mayor fuerza porque como dice el logo pues somos 600 millones pero a pesar de la cantidad de hispanohablantes que somos en el mundo todavía tenemos mucho que hacer porque en tecnología y especialmente en inteligencia artificial aún vamos por detrás y esto no es una cuestión de tecnología, es una cuestión de usuarios y de datos y por eso creo que eventos como este tienen muchísima importancia y deberían pues depender continuidad y ecos para poder construir entre toda lacomunidad pues la tecnología a la altura del lenguaje. De esto precisamente voy a hablar hoy y voy a hablar porque como bien ha dicho María pues llevo toda mi vida trabajando en esto aunque antes estaba menos de moda y la tecnología funcionaba peor pero precisamente eso es lo que os voy a contar hoy. Cómo hemos llegado hasta donde estamos con los modelos del lenguaje que cuáles son los retos a los que nos enfrentamos ahora mismo y por qué estamos aquí y cuáles son estos próximos pasos que tenemos que dar. Voy a compartir mi pantalla. Genial muchísimas gracias por tus palabras también la verdad que sabemos que hay mucha gente que nos apoya pero es muy importante para mí y para toda la comunidad creo también tener apoyos tan importantes. De nuevo gracias comparto tus presentación y ahora sí que sí hasta luego muchas gracias. Perfecto María pues vamos a ello siempre me gusta empezar a hablar de inteligencia artificial y de modelos del lenguaje remontándome hace ya bastante tiempo. El año 1951 es un año crucial para los orígenes de la inteligencia artificial porque se publica un artículo cuya autor es Alan Turing conocido por los descubrimientos de criptografía, los avances durante la guerra mundial pero publica un artículo que se llama "Computing Machinery and Intelligence" donde él mismo dice que si ponemos una máquina y una persona en una habitación y ponemos una persona fuera de esa habitación el día en que la persona que está fuera de la habitación sea capaz de no distinguir si está hablando con la persona o con la máquina ese es el momento que la inteligencia artificial está en la madura. Esto es lo que se ha venido llamando el juego de la imitación y cuando hoy en día pregunto y además me gustaría muchísimo ver todas vuestras caras hemos llegado hasta aquí es el juego de la imitación una realidad hace unos meses la mayor parte de la gente decía que no. A día de hoy hay muchos que ya asienten o afirman que la inteligencia artificial ha llegado a su madurez y que ya es capaz de interactuar como si fuera una persona humana. Hago aquí un pequeño inciso dado que estamos en un hackatón de español pero mi reflexión aquí es que todavía funciona mucho mejor en inglés que en otras lenguas entre las que se incluye la nuestra. Unos años después o casi durante la misma época surge la figura de Márgio Miskie fundador del primer laboratorio de inteligencia artificial del MLT. Se le considera el cerebro de la inteligencia artificial el que da por inaugurada esta disciplina en una conferencia en Darnoz y que además hace una investigación muy profunda en torno a las redes neuronales desde el punto de vista matemático y esto es muy importante tenedlo presente años 50 inicios matemáticos de los algoritmos que vamos a ver en la base de los transformers o los gpt que estamos viendo a día de hoy. Sin embargo lo que observamos es que los miedos que teníamos en vamos que tenemos ahora mismo también estaban ya en aquella época. [Música] Podéis ser en el espacio 1968 el miedo a que la inteligencia artificial destruyes el mundo ya estaba en boca de todos y ya era una comidilla cuando empezaban a surgir estos avances técnicos que sin embargo todavía no han llegado a funcionar a la altura de Jal ni siquiera en el entorno de nuestras mesillas que pronto si Dios quiere pues esperemos funcionando con la inteligencia artificial generativa pero que todavía no estamos ahí en ese Jal que va a destruir el mundo y que se va a hacer con la famosa AGI que es la inteligencia artificial general de la que tanto se habla en nuestros periódicos de una forma tremendista. Lo que estamos viendo y a mí es lo que me parece más relevante es que los orígenes de la inteligencia artificial se encuentran en los años 50 del siglo pasado. Esta época es crucial porque se desarrollan los primeros algoritmos matemáticos que están en la base de los sistemas de vectores, matrices y redes neuronales que vamos a ver después constituyendo los transformers de los que tanto estamos hablando últimamente. En la parte del lenguaje loque vemos es que se crean los sistemas de reglas para hacer una frase para traducirla decimos que hay un sujeto, un verbo y un predicado y unos diccionales y a partir de ahí empezamos a funcionar con la llamada lingüística computacional. Se desarrollan los fundamentos del NLP Natural Language Processing y los inicios del Machine Learning de una forma muy matemática y muy como digo basada en la lógica y en las reglas. En los años 80-90 después de un invierno de la inteligencia artificial se combina la inteligencia artificial con la probabilidad y el aumento de las capacidades de computación y la capacidad de entrenar con datos hace que la inlusión de gramáticas complejas pues puedan dar lugar a ciertos sistemas de generación del lenguaje. En esta época vemos como por ejemplo en el año 1997 el primer jugador de fede del mundo es derrotado, Kasparov es derrotado por un sistema entrenado con inteligencia artificial entre comidas. ¿Por qué? Porque la fede es un juego de reglas y las reglas combinadas con la probabilidad y una capacidad de computación adecuadas son predecibles a partir de un sistema de lógica y de estadística. Sin embargo hemos tenido que esperar hasta el tercer periodo hasta el año 2016 para que el mejor jugador del mundo de Go haya sido derrotado por un sistema de inteligencia artificial, DeepMind. Esto sucedió como os digo hace apenas seis años en un momento en el que se aplican las redes neuronales para utilizar aprendizaje no supervisado, es decir un sistema que no está basado en reglas porque se trata de un poco de estrategia parecido a las damas en el que se combina este procesamiento de los datos con un sistema de redes neuronales que es capaz de aprender a partir de esa información. Esto sucede como os digo hace bastante poco tiempo y a partir de entonces pues Google compra DeepMind y empiezan a surgir muchas mejoras en la traducción que empieza a basarse en redes neuronales. Si tenéis curiosidad sobre esta historia os recomiendo que veáis un documental que se llama AlphaGo en Netflix que explica un poco cómo sucedió todo esto y es bastante divertido. Pero para mí lo más importante es entender desde dónde hemos arrancado y cómo hemos llegado hasta aquí. La inteligencia artificial per se en el sentido más amplio de la palabra comienza a desarrollarse en los años 50 del siglo pasado. El machine learning comienza a finales de los 90 desde el punto de vista matemático y de aplicación de las redes neuronales. A partir del año 2012 y como os decía en producción más bien a partir del 2015 empiezan estos algoritmos de aprendizaje automático no supervisado a tener resultados reales y a ser posibles en ámbitos como por ejemplo la generación bueno la generación no en en ámbitos como el análisis de imagen o todo lo que son por ejemplo detección de caras o temas de seguridad. Pero hemos tenido que esperar hasta el año 2021 para la eclosión de la inteligencia artificial generativa de la cual hablaremos un poquito más adelante. La pregunta de todo esto es ¿por qué ha pasado todo esto y por qué? Pero hay que tener mucho en perspectiva el cómo y qué tipo de cosas han ido pasando. Los últimos años como os decía el año 2016 ha sido ese inicio de toda esta vorágine que parece que ha explotado el año pasado pero que ya lleva unos cuantos años explotando esa capacidad de reconocer objetos que surgen el año 2016 y como os decía empieza con imágenes. En el 2017 se hacen avances importantes en el reconocimiento del habla. 2018 toda la parte de comprensión de reading de lectura. 2018 también la traducción. Todos los sistemas de asistentes conversacionales mejorar notablemente y toda la parte de capturas de imágenes también. Hasta que llegamos al famoso chat GPT en el año 2022 y en GPT4 en el 2023. Esto ha suscitado pues una serie de revolución casi en la industria pero no solamente en la industria sino en todas las áreas de la sociedad y por eso se habla tanto de inteligencia artificial generativa. La pregunta es ¿por quési esto empezó hace tanto tiempo se ha puesto de moda ahora y por qué y si va a venir para quedarse? Bueno pues la respuesta es esto se ha dado gracias a tres razones. En primer lugar los datos. Cada día tenemos más datos en el último año se han producido más datos que en todos los años anteriores juntos y esta tendencia va en aumento exponencial. Estos datos se almacenan en la lube y son baratos son rápidos de almacenar y cada vez se almacenan con mayor agilidad. En segundo lugar la capacidad de procesamiento. Se oye mucho hablar de envidia últimamente. En envidia que viene también pues de esta origen en todo lo que son las GPUs y todo los sistemas de hardware asociados por una parte a la industria del videojuego y por otra parte a esta necesidad de capacidad de computación y velocidad ha sido crucial para el desarrollo de la inteligencia artificial porque como decíamos tenemos que procesar millones de datos a una velocidad enorme y cada vez mayor para entrenar y para poder poner en inferencia en producción estos modelos de redes neuronales y para ello también es necesario que el software acompañe movimientos como el software libre que también se han aplicado a los modelos de lenguaje han hecho que cada vez sea más fácil para cualquier persona poder tener acceso al desarrollo de estos sistemas incluso a través de su propio ordenador gracias a la computación en la lube. Sin embargo, cuando hablamos de inteligencia artificial tocamos varios campos. En la base siempre está el sistema de aprendizaje automático de machine learning desde el grado menos supervisado hasta el deep learning y ahora mismo pues toda la parte de transformes pero dentro de lo que son los datos que hay detrás de cada uno de los modelos es importante diferenciar que hay distintos tipos de datos y por tanto distintos tipos de algoritmos y por ende de modelos no solamente de imagen sino de texto y también de sonido o de voz. Esto quiere decir que cuando hablamos de procesamiento del lenguaje natural o de texto nos referimos al texto escrito y esto es fundamental caracteres alfanuméricos que son procesables por un ordenador. Cuando hablamos de visión o de imagen nos referimos a píxeles y estas pequeñas unidades en estos cuadraditos son los que van a constituir estos modelos de imagen como tenemos Dali o como tenemos los modelos que están surgiendo ahora mismo y que están dando lugar a todos estos fenómenos de los que tanto se habla como los deep face. Cuando hablamos de sonido estamos hablando de procesamiento de ondas sonoras el speech analytics es complejo porque combina tanto la parte de sonido como la parte de texto y la música y el vídeo pues tienen también esta complejidad que combinan distintos tipos de sistemas de datos. Si vemos de a centraros en el lenguaje porque como decíamos en esta en esta charla vamos a hablar de modelos del lenguaje vamos a ver un poquito cómo hemos llegado hasta todo lo que son los LLM o large language modes. Cuando empezamos a analizar cómo funciona una máquina y cómo aprende un ordenador a detectar cualquier tipo de frase lo primero que tenemos que ver es que cuando hablamos nosotros no hacemos paradas entre las palabras. Esto quiere decir que si yo digo Juan comió una manzana lo que el ordenador transcribiría sistemáticamente es este chorro de palabras que yo tendría que separar pero esto es una convención desde el punto de vista escritura. Esto quiere decir que lo primero que tengo que hacer cada vez que voy a utilizar un sistema de procesamiento del lenguaje es dividir las frases en tokens ni por qué toquen sino palabras y por qué tanto se habla de tokens y ahora mismo bueno parece que es un concepto que vamos ha surgido de la nada de lo que todo el mundo está hablando y por lo que nos cobra la GPT. Bien pues porque realmente cada sistema lingüístico tiene una forma distinta de tener su flexión, su morfología, su forma de derivar las palabras. Por cierto no lo he dicho soy lingüista así que este tipo de cuestiones puesme toca un poco la fibra pero es importante saber que por ejemplo entre un idioma como el español y que es flexivo y un idioma como el turco que es aglutinante el turco va pegando las palabras una detrás de otra como nosotros hacemos con los pronombres cuando yo digo dáselo ahí tenemos tres palabras o tres tokens. Esto quiere decir que dependiendo de cómo sea el lenguaje el concepto de token va a variar y va a ser procesado de distinta forma lo que aumenta por supuesto la complejidad a la hora de frenar estos modelos del lenguaje. Pero además de la morfología está la sintaxis esto quiere decir que el orden en el que aparecen las palabras en la frase es importante y esto es muy relevante porque los transformers y los GPT es todo lo que vemos detrás de chat GPT y de los sistemas los modelos del lenguaje que estamos analizando actualmente lo que tienen es un sistema probabilístico detrás que predice cuál es la siguiente palabra más probable dentro de una estructura por lo tanto el cambio de orden de una palabra afectaría completamente a lo que es por ejemplo un prompt o una instrucción porque el sistema está muy muy relacionado con la forma y toda la el espacio que ocupan las palabras dentro de la frase incluso nuestra propia lengua cuando convíamos una palabra de orden puede significar exactamente lo contrario y nos puedes imaginar en congresos como la sociedad de procesamiento del lenguaje natural la cantidad de papers que hay sobre la negación en español y sobre fenómenos de este tipo que lo que hacen es que sea altamente complejo detectar ciertos fenómenos lingüísticos como puede ser la ironía o las metáforas que también dependen un poco de cómo estén las palabras dentro de la frase. La cuestión aquí es cómo enseñamos todo esto a un ordenador porque a la hora por ejemplo de entrenar un chatbot vemos que ha sido bastante difícil el conseguir pues hace ya muchos años que un sistema de asistente virtual pidiera una pizza. Nos podéis imaginar la cantidad de horas de energía y de investigación que se han utilizado para combinar estos modelos del lenguaje y estos fenómenos lingüísticos que van desde la fonética hasta la pragmática. ¿Por qué? Pues precisamente porque en un idioma como el nuestro del español tenemos fenómenos que afectan a todas las capas. Cuando estamos hablando de fonética es decir de cómo se pronuncian las palabras o de cómo suenan vemos que hay fenómenos como el CSEO o el CSEO en distintas regiones de España como Canaria, Santa Lucía o Latinoamérica pues se pronuncian con un solo fonema. Esto a la hora de entrenar modelos y a la hora de diferenciar variantes lingüísticas es un matiz bastante importante para hacer por ejemplo sistemas de speech-to-text y hasta hace poco tiempo era uno de los obstáculos para conseguir que unas transcripciones funcionase de forma adecuada. La morpología es decir esta forma que tienen las palabras afecta por ejemplo a fenómenos como el CSEO o el de tú o el usted. Las formas de tratamiento en Latinoamérica y sus usos son muy diferentes y también las implicaciones que tiene el usar una forma u otra en un contexto más de respeto o más coloquia y por lo tanto también debemos de entrenar a los modelos con este tipo de variantes en función de esas necesidades y esas situaciones geográficas y de contexto. Y la pragmática y la semántica más aún es decir lo más difícil del lenguaje es ver qué significa una palabra o cuál es esa variedad de palabra que se utiliza en un determinado contexto y especialmente hablando de un idioma como el español donde podemos tener situaciones divertidas incluso palabras como ahora o ahorita que significan implicaciones muy distintas en España o en México y la pragmática cuando hablamos ya con sistemas de contexto cultural. Esto es aún más complejo todavía sobre todo en registros orales. Una persona de Puerto Rico, un gran amigo me decía no sé cómo van a enseñar ustedes a hablar de esas máquinas porque en mi país cada vez quehablamos dos frases decimos un refrán. Pues bien, la inteligencia artificial si bien está entrenada aún le queda por aprender bastante de refranes. Y cuando intentamos trasladar todo esto a un sistema de asistente virtual o un sistema de voz como decía todavía son bastante tontos porque porque necesitamos que ese speech analytics, esa conversación que yo tengo cada vez que habló con un asistente que pueda tener el nimensita de noche, se transcribe de voz a texto. Después ese texto se analice, se extraigan esos insights, se extraigan esos mensajes y después se pasen a otra vez a un sistema conversacional donde tengamos una frase que se genere y a partir de ahí pues un sistema de voz que lo pronuncie. Esto quiere decir que en cada uno de estos pasos se puede perder información si hay errores que inducen pues a una perdida de contexto o a un significado que no fuera del esperado. Por ello, pues aún no hemos visto esa realidad de asistentes virtuales a tiempo real más allá de que hay procesos que son computacionalmente complejos y que requieren una latencia, una velocidad de explosión que hace que no sea inmediata esta transcripción o este fenómeno de traer a texto o a voz lo que se trasfera a partir de un canal o de otro. Pero aquí lo importante es saber cómo han evolucionado estas tecnologías. Como os decía antes, cuando empezaron los sistemas de inteligencia artificial hablábamos de reglas y si trasladamos esto al lenguaje vemos que, por ejemplo, para hacer un clasificador una clasificación de un correo electrónico en un buzón o en una serie de documentos para saber si una palabra como banco significa objeto para sentarse o significa entidad bancaria y lo que quiero es analizar el contexto de esa conversación. Lo que hacíamos en estos orígenes del procesamiento del lenguaje era utilizar una técnica que medía las frecuencias de palabras. Si yo situaba banco en un contexto rural pues por las palabras que la rodeaban y todo ese contexto era capaz de predecir que se refiere a ese objeto de sentarse. Si lo situaba en un contexto de entidad bancaria por los pesos de las palabras relacionadas con el mundo de las finanzas era capaz de hacer esa clasificación. El problema era cuando el contexto no era lo suficientemente abundante. De ahí se pasó a lo que se llaman los sistemas de vectores y aquí entramos en una parte que es matemáticamente más compleja pero como comentaba ya estaba inventada hace mucho tiempo. En este momento dejamos de tener esa conciencia de esta palabra significa una cosa. La convertimos en un vector en el que cada elemento del vector es un campo numérico que tiene una longitud determinada y que se representa en un espacio tridimensional como se puede ver aquí abajo a la derecha. Estos vectores se representan en ese espacio y en función de las distancias que separan los ángulos de coseno entre los ejes podemos ver cuál es el vector más próximo un ángulo u a otro y cómo las palabras o las frases o los sistemas que analicemos transformados en estos vectores se parecen o se asimilan unos a otros. ¿Qué quiere decir esto? Bueno pues esto es importantísimo porque aunque parezca un poco abstracto esto está en la base de todos los sistemas de la inteligencia artificial generativa porque las bases de datos que se utilizan para gustar el lenguaje son vasos de datos vectoriales, es decir los datos de todo tipo se transforman en vectores y a partir de esos vectores somos capaces de realizar lo que llamamos búsqueda semántica para poder localizar cuáles son esas similitudes entre unas palabras y otras y construir las bases de lo que tenemos en los transformers o en los GPT. Esto como decía es matemáticamente muy complejo la estructura de una red neuronal es una combinación de capas de distintos vectores que se llaman neuronal no porque se parezca el cerebro ni porque tenga ningún tipo de actividad de pensamiento sino porque se asimila en cierta manera por los impulsos que se producen de transmisión de datos entre unos núcleosentre unas nodos de la red y otros. Esto lo que conlleva es una serie de procesos complejos matemáticamente en que los datos se van moviendo de capa a capa y por eso se necesita mucha capacidad computacional y mucha velocidad para conseguir que haya una serie de datos de entrada y una serie de capas de salida. Esto ha dado lugar a lo que es la arquitectura de transformers. La arquitectura de transformers está en la base de lo que es la célula de la inteligente artificial generativa y es un sistema en el que tenemos una serie de input-entrada y output de salida y están combinados en función de sistemas de razonamiento que parten de un paper que se llama o la "Tension is what you need" y que a partir de esta combinación de redes neuronales van combinándose entre sistemas de lo que se llama encoder y decoder para codificar y descodificar. No voy a entrar en la parte de matemática de todo lo que hay detrás porque es altamente complejo y lleva muchísimos años de investigación y como decía muchos años de investigación que solo se han podido implementar gracias a esta capacidad de computación de la que contamos muy recientemente pero que llevan ya mucho tiempo de aprendizaje desde el punto de vista matemático. Lo importante aquí es saber que estos transformers han constituido lo que son los GPTS Generative Procedure and Transformers, un sistema en el que se construyen los modelos de lenguaje mediante la combinación de estos transformers y lo que hacen es entrenarse con una serie de datos que van generando estos sistemas de entrada y de salida para después poder ponerse en producción y subirse a una nube donde se pueden utilizar para hacer consultados. ¿Qué hemos visto aquí? Bueno pues a partir del año 2012 empiezan a hacerse experimentos bastante interesantes. En el año 2015 se empieza a hacer un experimento con todas las imágenes de gatos que se encuentran en el internet. Sin decirle nada a este sistema de redes neuronales pues se entren a un sistema de transformers, empiezan a salir gatos sin haber dado ningún tipo de instrucción más ni de regla a todo este sistema. Entonces en el año 2015 se publica un "Pay for Pay" pero en la revista Wildt que dice "alimenta tu render onal con una gato y saldrán gatos" "alimenta tu render onal con nubes y saldrán nubes" la inteligencia artificial por fin funciona. Este es el primer experimento masivo que se lanza sobre la mayor cantidad de imágenes que había en internet que son las de gatos y gracias a esto pues podemos ver que por fin tenemos casos de uso de éxito en los que la inteligencia artificial empiezan a apuntar a lo que hemos ido viendo en estos últimos años de revolución. Sin embargo como os decía hemos tenido que esperar hasta el año 2018 para poder ver esa primera versión de GPT que todavía pues será una especie de embrión y no razonaba demasiado bien pero tenemos modelos como los modelos BERT sobre los cuales los investigadores hemos estado trabajando bastante en los últimos años con resultados que no dejaban de ser bastante interesantes. A partir del año 2020 empieza a acelerarse todo la aparición de GPT-3 es ya un buen cambio en el sistema y la aparición de Dali en 2021 empieza a cambiar las reglas de juego del mundo de la imagen. Sin embargo la eclosión de modelos surge a final de 2021 por incipios de 2022. La llegada de GPT-4 y la eclosión de modelos tanto de código abierto como de código cerrado hacen que el panorama cambie notablemente y además este gráfico se queda en 2023 pero lo que ha pasado en 2024 pues es todavía mayor. ¿Qué es lo que estamos viendo? Pues lo que estamos viendo es casi una guerra entre los distintos modelos en los que cada vez surgen nuevos benchmarks o sistemas de comparación de resultados donde lo que vemos es que hay modelos de distinto tipo. Tenemos por una parte los modelos basados como decía al comienzo en distintos tipos de datos de voz, de sonido, vamos de texto, de imagen y el concepto de multimodalidad es decirlos modelos que de pronto empiezan a mezclarlo todo. Los modelos de GPT al principio salieron como modelos de lenguaje ahora ya pues empiezan a combinar en las herramientas los distintos tipos de modelos para poder facilitar al usuario que de pronto meta un documento o una imagen y pueda ser capaz de extraer datos. Sin embargo todavía vemos que hay que realizar pequeños ajustes porque pues ha habido problemas como diferenciar o reconocer a veces las letras de una imagen cuando se mezclan distintos tipos de tecnología porque como decía esto no es tan sencillo desde el punto de vista del procesamiento de datos. ¿Qué es lo que hemos visto recientemente más llamativo? Bueno pues el lanzamiento hace un par de semanas de los modelos de SOTA de OpenEye que son los modelos de generación de vídeo que es una de las cosas más difíciles que tenemos dentro de toda esta tecnología. ¿Por qué? Porque el vídeo necesita imagen, sonido y texto a tiempo casi real entonces combinar todo esto requiere una cantidad enorme de datos, una capacidad de computación muy grande y verificar que todas estas tres líneas se orquestan de la forma que resulta adecuada para obtener buenos resultados. También lo que vemos aquí es que hay una especie de postura bastante diferenciada entre lo que son los modelos de código cerrado como pueden ser los modelos de OpenEye y todos los GPT es Dal y los modelos de código abierto como Unijune o como todo lo que son los modelos de llama que es la puesta de meta por toda la parte de software libre o de otras empresas como Mistral que es un unicornio que nació en Francia el año pasado y que ya ha producido pues uno de los mejores modelos de lenguaje que se puede utilizar y que bueno pues nosotros mismos hemos puesto en la propia plataforma Azure la semana pasada. Es decir, están pasando las cosas en tal velocidad que casi estar una semana sin leer todo lo que circula por redes, por publicaciones o por foros pues nos deja atrás en todo lo que es el desarrollo de esta tecnología que si bien pues no deja de ser una disrupción como tantas otras la velocidad que está cogiendo es absolutamente increíble. A mí lo que estamos viendo es que hay otras tendencias como a la creación de modelos más pequeños más especializados en determinados ámbitos o en resolver determinadas tareas porque los modelos muy grandes son muy caros de entrenar y muchas veces subó óptimos a la hora por ejemplo de poder correglos en un dispositivo como un teléfono móvil cuando no hay una conectividad muy grande o cuando no hay una capacidad de computación potente a la hora de ponerlo en inferencia, es decir ponerlo en producción para su uso. Pero lo que hemos visto también es una evolución pues bastante interesante entre estos modelos como imágenes generadas por Dalí y también su propio uso que lo que ha generado en nuestra sociedad es bastante revuelo con un fenómeno como los deepfakes que preocupa y mucho a la hora de ver pues hacia dónde pueden evolucionar los malos usos de la inteligencia artificial. También vemos que hay grandes esfuerzos por incorporar todas estas tecnologías en plataformas ya que al final no solamente se necesitan modelos para poder poner sistemas en producción sino que también se necesita infraestructura, se necesita seguridad, se necesita poder utilizar tus propios datos para trabajar con los modelos, es decir trabajar en lo que se llama una arquitectura RAC para poder de verdad consultar tu propia información a la hora de hablar con un modelo y conectarlo al mundo real sobre el que se quiere construir un caso de uso. Así pues vamos en Microsoft por ejemplo tenemos una arquitectura montada que cubre todo este tipo de cosas desde toda la parte de nube hasta todas las capacidades en función de los datos y luego herramientas que se van construyendo para montar lo que se dice soluciones sobre este tipo de productos. Pero volvamos un poco a lo que son los modelos, a lo que es la base de estos sistemas lingüísticosde lo que tanto se va a hablar aquí estos días y en lo que también todavía tenemos mucho que trabajar. ¿Qué son los modelos? Los modelos como decía son sistemas que están basados computacionalmente en transformes en elementos que predicen la probabilidad de que llegue la próxima palabra pero para qué sirven, o sea que es lo que ha hecho la inteligencia artificial generativa sobre todos estos sistemas. Bueno pues por una parte clasificar o analizar los datos, es decir nos sirven para mejorar todas estas capacidades analíticas que por otro lado muchas veces ya hacía el machine learning tradicional. Una de las cosas que hay que tener en cuenta es que esta inteligencia artificial no surge de la nada y que en varios casos de uso pues el machine learning tradicional ya lo resuelve sin tener que irnos a la idea generativa. Sin embargo la idea generativa nos da una ventaja competitiva a la hora de generar ese contenido y de mejorar por ejemplo la búsqueda que quedamos en los textos. ¿Qué podemos hacer con los modelos del lenguaje? Con estos grandes modelos. Bueno pues podemos mejorar mucho las tareas de resumen porque esa generación de resumen era algo que todavía no estaba bien resuelto con el procesamiento del lenguaje tradicional. Podemos mejorar mucho la extracción de datos estructurados y no estructurados. Todo lo que era el name entity recognition con toda la parte de búsqueda semántica mejora exponencialmente. Antes buscábamos una base de datos blockchain y no aparecía cripto. Ahora podemos establecer una relación y yo puedo ir a buscar en un concesionario. Quiero un coche azul o puedo decir tengo una familia grande y dos perros y me gustaría al campo el fin de semana y hacer que me recomienden un todoterreno y esto se hace por búsqueda semántica. Puedo también establecer comparaciones a mayor grado con grandes cantidades de documentación. Puedo mejorar los sistemas de traducción y puedo también mejorar muchos sistemas de recomendación. Los casos de uso son casi infinitos pero la realidad es que si se entiende bien esta tecnología se puede aplicar a casi cualquier cosa y también hay que os animo a que desarrolles vuestra imaginación en el jacatón porque muchas veces no se trata de buscar la tecnología más compleja. Muchas veces es buscar el caso de uso más apropiado para resolver un problema que se tiene con una tecnología que sea simple de implementar y al final cuando estamos trabajando en empresas y vemos cuáles son los problemas que tiene el cliente lo que vemos es que quizás ese camino más corto es el que sea el más difícil de encontrar porque las posibilidades son muchas. La parte de clasificación es una parte muy importante sobre todo cuando se tienen grandes cantidades de documentación en la que se quiere buscar esta información. Toda la parte de análisis de sentimiento que tradicionalmente funcionaba regular ahora abre una gran puerta pues con todo lo que es el análisis de ese contenido que está detrás de sentimiento. Ahora ya no es bueno o malo es de que se queja mi cliente porque se está quejando o que se está diciendo en la redes sociales sobre este tema cuando queremos analizar miles y miles de opiniones de forma simultánea gracias a la inteligencia artificial. La extracción de información documental es otro de los casos de uso que es bastante importante a la hora de ver las posibilidades que se abren. Aquí por ejemplo, vamos esto es un ejemplo de un pliego de una convocatoria de obra pública en un documento de 200 páginas donde tenemos una constructora buscando información sobre el tipo de materiales que necesitan y sobre los seguros que tienen que contratar para hacerla ahora. En circunstancias tradicionales sería una persona física la que emplearía muchas horas varios días en estudiar este documento y en extraer esa información casi de forma manual y ahora podemos tener un copiloto, un asistente virtual que nos ayude a extraer esta información y que la persona sólo tenga que revisarahorrando muchísimo tiempo del día a día de esta persona y que además bueno podamos entrenar ese modelo con los datos de documentos similares para mejorar ese resultado de una forma que casi la intervención de su mano sea pues prácticamente de control de calidad y como decía esta aplicación a la búsqueda en grandes cantidades de información es fácil gracias a la vectorización de los datos. La transformación de esas bases de datos tradicionales en bases de datos vectoriales permite que la búsqueda sea muchísimo más exacta y sea contextual. Al procesar este significado no solamente encontramos respuestas sino también buscamos por contexto sin tener que irnos a búsquedas textuales exactas entonces esto nos habla una cantidad de posibilidades enormes en cualquiera de los ámbitos que nos planteemos es decir estoy pensando en empresas con históricos documentales en distintos formatos de muchos años y de muy distintos contenidos como pueden ser despachos de abogados o cualquier tipo de empresa grande que al final pues tiene un archivo de data bastante bastante numeroso pero con todas estas maravillas tenemos una gran oportunidad y un gran retor a mí mismo tenemos un mercado como decía el título del jacatón de más de 600 millones de personas en los que todavía contamos con una tecnología cuyos moderos del envuje mayoritarios han sido entrenados en inglés y con datos de internet esto quiere decir que los problemas que comentaba antes desde el punto de vista semántico lexico morfológico sintáctico todavía no están bien resueltos sobre todo cuando entramos ya en variantes sociológicas en variantes orales en contextos específicos de ámbitos de dominio como puede ser pues el ámbito asegurador el ámbito legal el ámbito médico y cuáles son los usos del lenguaje que se hacen para cada uno de ellos el reto que tenemos ahora mismo es muy grande y es un reto no solamente computacional ni empresarial es un reto lingüístico en el que todos y cada uno de nosotros tenemos mucho que decir este jacatón pues hace un hallabamiento a esa accesión de datos a esa donación pero no sólo hay que donar esos datos después tenemos que construir con ellos tenemos que conseguir que creemos unos modelos que resuelvan de ver los problemas que queremos resolver tenemos que poder evaluarlos porque al final cuando hacemos un modelo lo primero que tenemos que saber para ver si funciona es meternos en un benchmark saber exactamente por qué se dice que gpt4 es mejor que yemen y por qué no es lo contrario esto hay que probarlo matemáticamente con datos y tenemos que tener un método científico para poder evaluar esto que es casi tan importante como producirlo entonces también tenemos que trabajar en toda esta parte de evaluación de modelos para para el ámbito del español y no queremos no podemos esperar a que bueno pues se lo lo hagan otros que no seamos nosotros es decir aquí es muy importante también que todo este contexto todo este conocimiento de para qué se usa determinada palabra o en qué contexto se usa o cómo se utiliza la tecnología para resolver un determinado tema también sea cuestión de cada uno de nosotros y por eso es tan importante que eventos como este pues abran la puerta a más desarrollos a la creación de nuevas empresas a la creación de nuevos corpus y a la evaluación también de todo lo que se está haciendo desde un punto de vista de esa exactitud o de ese funcionamiento porque como bien veníamos diciendo aún estamos en esta punta de dice ver han pasado muchas cosas en los últimos años y sobre todo en este último año han pasado unas cosas que nos han hecho volvernos a todos de locura pero aún queda muchísimo más por verse este año próximo va a ser emocionante y los próximos cinco se puede asegurar que también y me siento muy privilegiada de estar donde estoy y poder ver esto desde la primera fila del teatro pero realmente creo que esto no hay que verlo desde la barrera de esaplaza de todos los o desde ese teatro sino que hay que verlo desde el escenario porque nosotros somos los principales actores de esta obra y gracias a nosotros irán avanzando todas estas cosas como decía maro y minski que mencionaba al principio el fundador del primer laboratorio de inteligencia artificial del mt los robots se le dan a la tierra sí pero nosotros seremos sus padres así que con esta inauguración llamo a todos a participar en el jacatón y que esto no sólo se quede en el jacatón sino que sea el principio de una nueva aventura en la que cada uno de nosotros ponga un granito de arena para hacer avanzar la inteligencia artificial en español y por supuesto yo estaré aquí para ayudarles a todos ustedes y para poder colaborar en todas las iniciativas que vayan a favorecer a nuestra lengua a favorecer la banca de la inteligencia artificial y a construir soluciones para que hagamos humanos mejores gracias a esta tecnología maravillosa muchísimas gracias muchísimas gracias elena la verdad que súper completa la quinoa te hemos hablado de todo bueno has hablado de todo y bueno obviamente me ha parecido muy bueno me ha cantado el enfoque en la diversidad también el llamado a participar y a ser actores y bueno la verdad que bueno yo me estoy en latinamérica y el caribe y me estoy enamorando de los acentos también me ha hecho mucha gracia el ejemplo de cómo se dice eso amiga o colega yo siempre pongo el ejemplo de cómo decimos que algo nos encanta es guay chévere bacana y también 50 mil maneras de expresar eso entonces bueno muchas gracias y vamos a ver si hay preguntas podéis escribir las preguntas en el chat en youtube y tenemos una de joan manuel nos dice voy a ponerla aquí para que la puede leer todo el mundo elena muchas gracias por tu charla una pregunta general cuál es la mayor aplicación del lm es que ves con mayor impacto en el mercado laboral al menos en lo inmediato interesante muchas gracias por mano el bueno esto de jugarse a la mayor aplicación es muy difícil porque depende tanto del caso de uso que verdaderamente hay que analizarlo caso a caso pero yo diría que la mayor aplicación es la productividad es decir o sea los fenómenos como conocidos como los copilot son los asistentes virtuales ahora mismo lo que nos están demostrando es que tareas que me llevaban muchas horas pues han podido reducir su tiempo gracias a herramientas que me reducen ese tiempo de tareas inútiles y cuando hablo de copilot estoy pensando pues en asistentes que hacen que resuma ese texto que haga esa búsqueda de una forma más veló que redacte un correo electrónico por mí que haga ese proceso en el día a día pues más ágil y al final pues los niños empezaron el cole con el chac que pete nosotros lo estamos utilizando en el trabajo y esa tendencia a extenderlo a todas las capas como herramienta de productividad creo que es lo que a todos nos está afectando nos va a afectar como fue el uso de internet los teléfonos móviles o del ordenador personal creo que esta es como la primera capa y luego ya las segundas es buscar ese caso de uso más concreto dependiendo del tipo de datos que se tenga o sea aquí por ejemplo creo que hay dos ámbitos en la parte de lenguajes fundamentales o sea la voz y el texto entonces en la parte de voz todo lo que son sistemas de asistencia tanto para lo que es especial teis es decir por ejemplo colcente transcripciones de conversaciones consultas de médico todo lo que es habilizar toda esa transcripción y extracción de insides de conversaciones y usó grabar una reunión y sacar un resumen y unas notas de esa propia reunión pues es una es una realidad que ya tenemos en el día a día en nuestros propios sistemas de trabajo y luego toda la parte de procesamiento de documentación o sea y creo que hay un melón que todavía no se ha explotado de forma adecuada y es la cantidad de tiempo que perdemos leyendo documentos redactando documentos y revisando documentos y aquí nos pueden ayudar muchísimo todosestos sistemas de lenguaje hay bueno pues a buscar información a comparar documentos de todas estas tareas que quizás no son lo más importante de lo que hacemos muy bien la verdad que totalmente de acuerdo cada vez estamos utilizando más en nuestro día a día y seguirá subiendo tenemos otra pregunta sobre si los modelos bueno que dice que si los modelos funcionan mejor cuanto más grande es el data sobre el que entrenan no siempre hay hay papers interesantes sobre este tema crees que tiene tienen alguna posibilidad los modelos en español de igualar en calidad a los modelos multilingües bueno yo creo que está es una pregunta bastante compleja de contestar en el sentido de que depende mucho del caso es decir o sea aquí como decía antes esto no es burro grande ando no ande es decir los modelos grandes han demostrado que ahora mismo tienen el mejor performance a la hora de haber sido entrenados con datos masivos pero una tendencia que estamos viendo ahora mismo es a lo que son ese lm es la es la lengua es más o sea por ejemplo sacó fi 2 pero están saliendo cositas bastante interesantes que lo que hacen es ir a resolver determinado tipo de tareas con un coste mucho menor y una capacidad de computación más pequeña entonces esto permite que sean más baratos que se puedan correr más rápido que tengan menor latencia que se puedan desplegar en dispositivos móviles y que al final pues sean más ágiles a la hora de combinarlos entonces si bien esta primera tendencia ha sido al modelo grande ahora lo que se está buscando son eficiencias así que la respuesta es triki porque depende de para qué entonces también los modelos generalistas eran necesarios para empezar a trabajar desde un punto de vista de bueno primero tengo internet y tengo todo pero luego tengo que ver en qué páginas busco entonces ahora estamos en esa segunda fase de en qué páginas busco qué modelo se utilizo para resolver las tareas que yo necesito resolver porque ahora mismo tú no necesitas un modelo grande para todo eso ya lo tienes en los buscadores lo tienes en las fpte y lo tienes en binglo tienes en todos pero ahora lo que necesitamos es bueno pues tengo mi despacho de abogados y tengo mis documentos y quiero que la respuesta sea la mejor para un abogado y que además escriba como yo y utilice mi documentación entonces una de las cosas que estamos viendo es que no solamente son modelos sino que lo que necesitamos son arquitecturas de raf retriba la unidad de generación que lo que tiene es una combinación de modelos como motor de inteligencia y por otra parte de mis datos para trabajar sobre mis datos con modelos que vayan a realizar las tareas que yo quiero entonces para esto no necesitamos grandísimos modelos y una combinación de herramientas existentes una arquitectura de datos y bueno pues sistemas que funcionen bien para lo que yo quiero hacer. Efectivamente y después también añadir que bueno como no tenemos una líder en español tampoco podemos mirar muy bien si estos modelos son muy lindos realmente están pues son más potentes o en qué punto pues mejoran a los que sean entrenados únicamente en español o dependen. Tenemos que trabajar mucho en la parte de modelos en español o sea yo no estoy pensando tanto en un gran modelo desde pites de cero pero sí que es verdad que ahora mismo hay una opción que es bastante interesante y es coger modelos existentes y hacer fine tuning sobre ellos con determinados corpus entonces una cosa que sí que se puede hacer y es bastante más fácil y menos costoso que hacer un modelo grande es coger un modelo existente modelo que se puede hacer un fine tuning con un data set específico que puede ser geográficamente sobre un ámbito o automáticamente sobre un área y esto funciona bastante bien en muchos de los tasos. Efectivamente, esa es un poco la idea que cada equipo del hackathon que cada equipo cree un cuerpo de instrucciones de una temática o una variedad de un país específico yque hagan fine tuning y después si podemos ya a nivel organización entrenar un modelo con más datos pues mejor que mejor porque habrá falta más máquinas pero bueno vemos. Bueno pero es bueno y ya lo arreglamos. Lo arreglamos perfecto genial contar con tu apoyo. Marian nos dice bueno primero que muy buena charla quería consultarte Elena como ves a los frameworks y tecnologías alrededor de los LLMS, Lantern, Yamain, de STC en términos de madurez. ¿Es recomendable implementarlas en producción? Pues de nuevo aquí te digo ni sin irnos sino todo lo contrario, es decir depende de para qué. Aquí no podemos decir que es un LLMS grande o pequeño pues depende del caso de uso y depende de lo que queramos hacer con ello. O sea que al final lo que vemos es que todo lo que llamamos ML Ops todo lo que es operativa en torno a las arquitecturas que van jugando con sistemas inteligencia artificial de IA y modelos genéricos necesitan pues una serie de piezas que son las que han surgido pues a partir de todas estas arquitecturas desde las bases de datos vectoriales hasta todos los sistemas de orquestación como son la Anshin, Yamain, etcétera para poder ponerlos en producción. O sea a mí un modelo persenome sirve para nada y esto es también lo que tenemos que tener claro al final que esta inteligencia artificial funcione es una serie de piezas, necesita una arquitectura donde tenemos que tener capacidad computacional, sistemas para poder en producción y desplegar los modelos datos en toda la parte de arquitectura y luego pues un poco el que queremos o como queremos hacer esta consulta a todos estos datos. Entonces dependiendo de lo que se quiera hacer pues hay piezas que son más adecuadas que otras o sea uno es lo mismo hacer un prototipo de un bot para una prueba con un corpus pequeño de datos que poner esto en producción para reclamaciones de una aerolínea y tener un sistema en que todo el mundo reclama la vez porque es cuando se retrasa el vuelo. Entonces pues esto requiere ya unas distintas capacidades y sobre todo pues sistemas que no solamente van a toda esta parte tan bonita de inteligencia artificial sino que requieren también pues arquitectura de la de siempre y de la buena en toda la parte de data para que sus sistemas se sostenga porque no olvidemos que son sistemas computacionalmente. Bueno pues todavía les queda un ratito y que son muy costosos de mantener y de poner en producción y hay temas de latencia y hay temas de arquitectura de software que son importantes cuando manejamos grandes volúmenes de datos. Entonces a la hora de elegir una solución hay que tener en cuenta muchas cosas. Sí, sí, no es trivial para nada. Bueno la gente está animando y están llevando más preguntas pero bueno si queréis leemos como mucho una o dos más porque ya llegamos a las tres o bueno Elena en vez de ser tan increíble generosa con tus respuestas también puedes acceder. Es por ti para que bueno si no las recogemos y os lo vamos a expandir. Leemos la siguiente de Gabriel nos dice nos pregunta qué técnicas crees que sean mejores para crear un modelo específico para educación que pueda pindar mejores respuestas en un campo que es HPT. Mencionaste ya el RAG a ver si hay otras. A ver el RAG es una arquitectura entonces aquí lo que nos permite el RAG es utilizar un modelo, consultarlo sobre nuestros datos y permitir que ese modelo aparte del conocimiento que ya tiene en su entrenamiento pues sea capaz de responder con un determinado contenido entonces qué ventajas tiene esto bueno por un lado que evita las alucinaciones o sea no se inventan las cosas cuando no la sabe o sea le podemos orientar a un tema de grounding es decir que sólo me conteste sobre la información que yo le doy pero bueno pues dependiendo también del caso de uso tiene sus limitaciones es decir si un modelo no ha sido entrenado en nuestro idioma o no ha sido entrenado en un determinado dominio pues va a fallar y básicamente salióun point tuning es decir o sea que hay como tres niveles a la hora de utilizar todo esto uno es el nivel del prompting que es como esta primera consulta que como si le pregunta un modelo para que me conteste bien esto no es trivial y se habla hasta de prompting engineering que es cómo aprender a dar instrucciones a un modelo para que me conteste de la forma adecuada lo que yo quiero entonces al nivel de prompting se pueden hacer muchísimas cosas porque parte del contexto se puede meter en el prompt para hacer que estas respuestas sean las adecuadas otra es el ecosistema del RAG donde aquí pues lo que vamos a meter los datos y combinando estas dos pues se pueden resolver diríamos que el 90% de los casos en el tema del campo de la educación y en todos cuando ya hablamos de temas muy específicos donde como digo pues no está el modelo entrenado con los datos podríamos hablar de hacer ese point tuning y aquí pues como digo las cosas dependen o de si es una lengua que no tiene el modelo de si es un dominio en el que de verdad pues hay es necesario por ejemplo entrenado modelo en un ámbito legal como decía antes un modelo que en España uno sea entrenado en ámbito legal no pues falla como una escopeta de cañas porque no tiene el contexto histórico que lleva a nuestro sistema jurídico entonces probablemente sí que sea importante trabajar aquí pero en el campo de la educación y en todos entonces se trata de ver un poco cuáles son esas piezas para conseguir la mejor solución esto no es blanco negro es hacer casi encaje de bolillos para que las cosas funcionen adecuadamente estamos hablando de datos no estructurados no lo olvidéis el lenguaje es caprichoso lo es lo es dicho por la lingüista que se me olvidó decirlo en tu presentación carlos nos hace otra pregunta qué opinas del creciente uso de datos sintéticos en el entrenamiento de modelos desde un punto de vista utilitarista parece dar buen rendimiento pero metodológicamente presenta ciertas dudas no bueno pues como decía antes depende es decir o sea una de las cosas que se está haciendo para toda la parte de datos sintéticos es la traducción de datos es decir cuando tenemos suficiente corpus para poder hacer un entrenamiento y necesitamos pues que haya variedad se generan datos sintéticos y esto hace bueno pues por un lado que se hará telecoste por otro lado que se mejore el resultado si el procedimiento es bueno mejor el resultado y bueno nos está incursando en ningún tipo de problema pues no habría un porque dudar de la metodología no sea al final de lo que se trata es de mejorar las herramientas y de conseguir que nos den los resultados que nosotros queremos es al final los modelos lo que tenemos que tener muy claro es que reproducen lo que nosotros estamos en los datos y para poder hacer que funcionen bien pues necesitan un volumen y una variedad adecuada gracias a que la propia inteligencia artificial es capaz de generarlos pues es un buen sistema para no tener que utilizar datos originales que son más caros más imperfectos y que muchas veces no están disponibles grandes problemas y efectivamente de hecho en el hackathon como como colaboramos siempre con Archila este año el equipo nos ha preparado un no punto ejemplo para utilizar su nueva librería distil label efectivamente para crear data sets con o sea de datos de datos sintéticos vaya que les ha dado muy buen resultado con algunos modelos con notus y con esa familia a ver datas y más generales una pregunta sobre un caso de uso concreto la traducción del mudena crees que los lm's llegaran a sustituir a los nm's o sea neural machine translation o es coste de tiempo de datos depende otra vez bueno a ver yo creo que aquí es una combinación o sea es que los nm's al final están pasados en redes neuronales los lm's también entonces la traducción al final ha mejorado muchísimo con los lm's y se seguirán usando o sea la respuesta creo que en este caso es sí porque cada vez lo que vamos viendo es que la tecnología que va subiendo mejor elresultado y en el caso de la traducción es uno de los casos que para mí es claro el que se está dando un salto exponencial en toda la parte de cómo se está bueno cómo está funcionando sobre todo a la hora de la corrección del resultado no me digáis que no me ha gustado coger un email que has descrito en inglés medio su sube y pasarlo por el por un gpt y una perfecto a veces hay que tener hasta cuidar con palabras que yo no diría a ver si me van a pillar no hay tongos simplemente quería hacer preguntas que sean más genéricas pero bueno ya que insiste yo no es quiere preguntar nos dice que justo se puso a estudiar y a utilizar el nm's desde que vio la publicación del inte entonces pregunta que qué tal el desarrollo bueno bien desde que salió el inte a esta parte ha llovido mucho en el ámbito de los modelos de lenguaje o sea digamos que todos hemos puesto nuestro nm's de arena pero ahora mismo lo que estamos viendo en el ecosistema es que hay muchísimas soluciones que han superado bueno pues muchos desarrollos en este sentido entonces ahora mismo lo que hay que hacer es construir sólo lo último que sale o sea y sin miedo a barrer todo lo que uno ha hecho antes porque al final esto es como la investigación o sea cada paso que se ha dado va para para facilitar el siguiente pero a veces se comete el error y esto vamos estamos viendo muchas empresas que llevan toda la vida trabajando en temas de procesamiento del lenguaje natural que le han cogido mucho cariño a su bebé pero es que el problema es que la tecnología ha cambiado mucho entonces hay veces en que hay que barrer para atrás todo lo que uno ha hecho incluso y decir vamos a ver ahora mismo la ciencia va por aquí me tengo que subir a siguiente escalón así que ese es el mensaje o sea en este campo hay que ir a basarse en lo último que ha sabido y si me preguntas sobre qué construyes hoy te diría que miremos un poco el benchmark de modelos y sobre el último que mejor funcione hagamos una prueba muy buena respuesta y con mucha mucha ilusión y motivación para el ante ya dos últimas recomendar o por ejemplo algún desarrollo para despliegue on device ya que hablaste mencionaste esto en en tu charla si vamos a ver aunque todos estos modelos están desplegando en la nube o sea lo que estamos viendo también es que por un lado ni todo el mundo está igual de conectado ni todas las soluciones necesitan una conexión y una potencia para un desarrollo es decir o sea un despliegue on device podría ser un sistema de traducción como el que hemos hablado pero es que esto por ejemplo es muy necesario pues en ámbitos donde la conectividad no es 5g como tenemos la suerte de tener aquí entonces no olvidemos también en que en un mundo en que las gpu sabras se convierten en bueno pues casi lo necesario para poder correr un modelo hay muchos lugares donde apenas llega a internet en forma bueno pues lo suficientemente potente como para poder hacer una consulta rápida y menos para poder interactuar con este tipo de sistemas entonces por un lado la conectividad es un asunto y por otro lado las aplicaciones que se encuentran en entornos en torno de desplegados entre los sistemas pues por ejemplo como puede ser un sistema bancario una aplicación de pagos etcétera donde no necesariamente tiene que haber una condición una conexión de internet para poder hacer ese despliegue de modelo entonces bueno que hubo también hay ámbitos donde se están viendo el desarrollo de modelos en greenfield como pueden ser pues áreas donde la seguridad pues es fundamental y ni siquiera pues se están desplegando en la nube aquí ya pues son casos muy específicos porque evidentemente poner un modelo y subirlo a un sistema pues es muy caro respecto a ponerlo en una nube y poder desplegarlo para distintas instancias pero pero sí se está investigando también mucho en este sentido porque dependiendo del caso de uso y la necesidad tanto por exigencia de privacidad y de seguridad como por exigencia de conectividadpues esto abre una puerta a que se despliegue en modelos en en ámbitos donde no se puede genial y la última además hacemos así como un buen cierre porque nos preguntan sobre microsoft qué opinas del último paper de microsoft de net que parece tan prometedor y también gracias por la charla creo que todo el mundo la ha encantado bueno creo que ahora mismo o sea queda muy mal hablar de la propia casa de uno sobre todo cuando lleva poquito tiempo pero creo que lo que el papel que está jugando microsoft en el ámbito de la inteligencia artificial es fundamental también a la hora de investigación y una de las cosas que a mí como lingüista académica y convencida de que la investigación y la empresación inquieta de la mano es ese rol de estar a la última en todo lo que va saliendo entonces bueno creo que que ahora mismo estoy como en el olimpo de donde querría estar en el sentido de que se han juntado todos estos mundos es decir necesitamos que haya muchísima investigación porque como os decía tenemos que estar a la última de lo que ha salido esta semana para poder ver cuál es el siguiente desarrollo pero también tenemos que ser capaz de ponerle producción y por tanto no solamente se trata de investigar sino de ser capaz después de montar ese modelo de desplegarlo de que los clientes lo puedan consumir y de poder llevar la producción y que no tengamos un problema después de que lo que había en el paper no se puede implementar porque no hay capacidad computación para hacerlo entonces esto es pensarlo inventarlo idearlo y producirlo hacer toda la cadena de valor de principio a fin y para eso pues creo que las empresas tienen que investigar y las universidades tienen que trabajar con empresas así que hay que trabajar mucho en este círculo porque aquí no hay ganadores aquí hay colaboradores y creo que todos somos parte de ese ecosistema totalmente muy bonito terminar con un mensaje de colaboración de siempre poder construir sobre lo que ha lo que ha publicado el equipo de al lado de enfrente del otro país del otro lado del de el océano entonces bueno ya con este mensaje vamos a vamos a cerrar la charla muchísimas gracias al final ha sido casi una hora pero bueno muchísimas gracias Elena por por compartir toda tu experiencia tu conocimiento también con las preguntas del final y obviamente pues por por apoyar a somos en el epi y nuestra misión muchas gracias María un abrazo a todos y suerte en el sacatón un abrazo [MÚSICA]
Elena González-Blanco
La importancia de la diversidad lingüística, María Grandury @SomosNLP | Hackathon #Somos600M
Hola a todo el mundo, hoy comienza la segunda semana del hackathon "Somos 600M". Y sí, la pregunta que más nacéis, las inscripciones siguen abiertas. Esta mañana, de hecho, había ya 450 personas apuntadas, o sea, es increíble. Y muchísimas gracias a todo el mundo por apoyar nuestra misión de crear más recursos, y sobre todo más recursos abiertos y diversos en español y las lenguas cooficiales. Hoy vamos a ver tres, bueno, una, aquí no, y dos talleres. Primero voy a empezar hablando yo un poco sobre la importancia de la diversidad lingüística. Veremos el impacto del hackathon, cuáles son los objetivos que tenemos y cómo podéis apoyar. Será muy cortito, menos de 15 minutos. Y a continuación os presentaré a Gabriel, Gabriel des ingenieros de Machine Learning en Archila, donde actualmente se centran en el desarrollo de herramientas para la generación y anotación de datos para el entrenamiento de LLMS. La persona perfecta para hablarnos de cómo crear datos de calidad y cómo entrenar modelos como notos, ¿vale? Y por último llegará Manu Romero, ya le conocéis de otras ediciones. Machine Learning Engineer y CSO en Maesa también contribuye muchísimo con HindFace, tiene más de 500 modelos en el hack y bueno, también investiga en varios proyectos internacionales. Entonces, vamos a empezar esta introducción sobre el hackathon. Pero antes de decir por qué necesitamos diversidad lingüística y por qué tiene que estar representada, vamos a ver qué es muy rápidamente, no vamos a entrar en temas de lingüística. Hay diferentes variedades, ¿vale? Diatópicas o geográficas, que serían lo que comúnmente llamamos dialectos. Diacrónicas o históricas. Por ejemplo, yo estoy hablando español actual, también habría moderno, clásico del siglo de oro y medieval. Variades diastráticas o socioculturales, que son los diferentes niveles lingüísticos, alto, oculto, medio y bajo, global. Y las diafásicas o funcionales, que serían los instintos registros, registro coloquial, formal, familiar, respetizarizado. Entonces, antes de hablarmos del mismo tipo de español, dependiendo del contexto en el que estamos, ¿vale? Y estas son esas variedades. Bueno, y ya está. Bueno, si os interesa un poco más de lingüística, os recomiendo una charla de Crisaranda de la primera edición del hackathon, en la que vimos todo esto mucho más en detalle. Está en el canal de YouTube. Bueno, os he dicho por el canal, bueno, por el chat, que estaba en Buenos Aires y es que llevo un mes por Latinoamérica y el Caribe, porque estoy más enamorada de las diferentes maneras que hay, bueno, que tenemos de expresarnos en español. Hay diferentes maneras de nombrar, por ejemplo, si queremos decir que algunos encantan, podemos decir que chévere, que bacán, que guay, podemos tomar la agua al colectivo, el autobús. También hay diferentes expresiones coloquiales, dependiendo, bueno, en el lenguaje oral. Por ejemplo, en Uruguay dicen todo el ratota y en Chile dicen sípo, no puedo, por ratopó. Y en Puerto Rico, donde me invitaran a dar una conferencia, también es muy común utilizar palabras en inglés. De hecho, dos de cada tres palabras sin estar en inglés. Entonces, esto es del punto de vista de modelos del lenguaje. Es muy interesante ver cómo respondería, ¿no? Si vas cambiando, mezclando idiomas. No todo es escribir, también tenemos diferentes acentos, muy interesantes desde el punto de vista de los modelos multimodales. Por ejemplo, es muy común el cesio en Andalucía, en Canarias, en Latinoamérica, en Caribe, por eso Vestón Sol, donde hay, donde hace bueno, es como mi cesio. En Argentina y Uruguay, el español río platense que dejamos, utilizan la E y la Y, se pronuncian como "sh". También aspiran la S, de hecho aspirar la S es bastante común, por ejemplo, en otras zonas, en el sur España, en Chile, en diferentes zonas del Caribe. Y así como otra curiosidad, en Puerto Rico a veces cambian la R, el final de las palabras, por L, que de hecho lo habréis escuchado en muchísimas canciones. Y bueno, hay muchísimasparticularidades más. El tema es que, bueno, a mí personalmente me encantan, creo que son preciosas, y todas estas maneras de expresarnos. El tema es que en general los modelos de lenguaje hablan un tipo de español, realmente no hablan español porque es muy rico. Entonces, uno de los objetivos de este jacatón es crear más recursos que representen todas estas variedades de la lengua, habladas por el número que siempre aparecen, las partes que es 600 millones de hispanohablantes. El tema es que no sólo hablamos español en estos países hispanohablantes, por ejemplo, en España hay cuatro lenguas oficiales, que serían el catalán, el valenciano, el leusquera y el gallego. Y tenemos el proyecto "Hilenia", que de hecho colaboró con el jacatón también, y los subproyectos digamos "Aina vives en el gaitú y nos", cuyo objetivo es generar más recursos en estas lenguas oficiales. En Latinoamérica y el grébet también encontramos un montón de otras lenguas habladas en estos países. Por ejemplo, en México tenemos la lengua Nahuatl, y de hecho otra charla que os recomiendo es de Ximena Gutiérrez, que la dio también en la primera edición del jacatón sobre cómo crearon este corpus paralelo de Nahuatl a español. En Chile tienen en la isla de Pascua la lengua de la civilización Rapanui, y también la lengua de la comunidad originaria Mapuche. Entonces, bueno, aquí he puesto un montón de, bueno, cuatro logos, que serían de la Atenia, la Unesía Católica, la Academia de la Lengua Rapanui, Instituto de Lengua y Cultura Mapuche, que están creando pues es un proyecto para crear más recursos también en estas lenguas que se podan en su país. Y también lo bueno es que estamos empezando a ver también varios congresos o workshops en diferentes congresos sobre lenguas indígenas. Entonces, bueno, estoy seguraísima de que hay más proyectos que no conozco, me encantaría que me los pasasis para incluirlos en esta diapositiva y apoyarlos, darle más suficididad dentro de lo que podamos hacer. O sea que, bueno, desde aquí pues un poco el mensaje de aunar los esfuerzos para impulsar la Aya en estos idiomas y conseguir que tengan representación digital, que es muy importante. Entonces, ¿qué queremos? Modulos inclusivos, bien, y para eso que necesitamos pues datos diversos, ¿vale? Datos diversos que representen a los 600 millones de personas disponablantes, porque todos ya sabemos que la Aya no hace mágia, o sea, si no hay algo en los datos, después no va a aparecer en el modelo, o sea, el modelo no va a ver generar texto en una variedad que no ha sido entrenado. Y ¿por qué queremos modelos inclusivos? Entre otras muchas razones, meteorcesgos, ya sean de género, diversidad de opiniones, o también pues que si yo voy y le hablo en español colombiano, pues me responda en la misma variedad que no me mezcle o no me responda en español neutro, que tampoco existe, ¿vale? Como tal. Y también muy importante, mitigación de desigualdades, en el sentido de que si una lengua o variedad no está representada en el mundo digital, la brecha sociocultural, que ya existe, casi todos en muchos de los casos, se va a hacer mucho más grande y lejos de mitigarse. Entonces, bueno, queremos modelos inclusivos, necesitamos datos representativos y cómo evaluamos estos modelos, que es otra pregunta. De hecho, la pregunta más común que nos hacen en el servidor de la comunidad en Discord es ¿cuál es el mejor modelo en español? Y el tema es que no sabemos, porque no hay una líder board pública en la que podamos hacer esta comparación. Entonces, pues bueno, el segundo objetivo de este hackathon o de este proyecto es crear una líder board abierta de LMS en español y lenguas cooficiales que nos permita estandarizar cómo evaluar y comparar nuestros modelos. Ahora, en general, lo que pasa es que cada un setuto de investigación o cada empresa tiene su propia líder board pública, es abribada, pero necesitaríamos, si queremos medir el avance de la idea en español, incentivartambién una competitividad sana y probar la valida de nuestros modelos, pues necesitamos una manera pública e imparcial de evaluarlos. O sea que bueno, recopilamos, necesitamos un gran corpus diverso y una líder board, entonces esos son justo los dos objetivos del hackathon al que os invito a uniros. Está ya no estáis. Vamos a colaborar en equipos de hasta cinco personas, ahora os explico un poco más. Siempre, como las otras audiciones, con la intención de que tenga un impacto social en cada proyecto que estén relacionados con los objetivos desarrollados sostenibles de la ONU y a la vez que se organiza todo esto, pues también hay keynotes y talleres, como el ejemplo de los dos de hoy, ya tuvimos uno el jueves pasado de Elena González Blanco de Microsoft y bueno, tendremos más esta semana, más la que viene para seguir aprendiendo. Y las keynotes están abiertas también a la gente que no participe en desarrollar proyectos. Vale, los dos objetivos, crear el mayor corpus instrucciones y la primera líder board del LMS en español, ¿cómo se puede colaborar con el corpus? Pues como había dicho, vamos a hacer uno, ya de hecho hay bastantes equipos de unas cinco personas. Cada uno va a crear una parte de ese gran corpus, por ejemplo crear una parte enfocada a un país determinado o una temática específica. Por ejemplo, un corpus de políticas de igualdad de género en Chile, ¿vale? Entonces puedes poner un ejemplo, pero puedes coger cualquier PDF y generar una base de datos de preguntas y respuestas a partir de él. ¿Cómo lo creamos? O sea, recomendamos utilizar Distill Label, que de hecho justo ahora hay cuarto, bueno, 5 o 4 minutos, Gabriel nos dará un taller explicando la librería y bueno, hemos puesto también a vuestra disposición un notebook. Una vez tengáis el corpus, lo utilizaréis para entrenar vuestro LLM y que también veremos en el taller siguiente, como podéis entrar este LLM, nos preocupéis, si no sabéis, os ayudamos en todos los pasos. Otro opción, obviamente, si ya tenéis un corpus instrucciones desarrollado por vuestro grupo de investigación, por vuestra empresa X, lo podéis donar. Estábamos muy agradecidos. Y para colaborar con la Leaderboard también, obviamente, aceptamos donaciones y si no, estamos organizando un esfuerzo colaborativo para validar las traducciones hechas, las traducciones del inglés al español de la famosa Open LLM Leaderboard, ¿vale? Entonces, pues también nos invitamos a unirnos a este esfuerzo. Os dejo ahí los dos enlaces, tanto para participar como si queréis donar un corpus. Como sabéis, en todo lo que hacemos en el hackathon, todo lo que hace la comunidad es Open Source. Y además, por favor, os invitamos a desarrollar proyectos de manera responsable. ¿Qué significa esto? Que presteis atención a los sesgos, a la agüilla de carbono y a la documentación. Muy rápido. La ya sabemos que depende de los datos. ¿Vale? Entonces, ¿cuál es el problema? Que están sesgados. Vamos mejorando mucho como sociedad, pero siguen viviendo sesgos inconscientes o inerentes en las noticias, páginas, web, libros que ya hemos escrito. Entonces, el problema es que cogemos todo este contenido para entrenar un modelo. Y entonces, como los modelos aprenden patrones, pues el modelo aprende conducta racistas, homófobas, cualquier tipo de discriminación. Mítico, gracias a todos los mimos serri, de garbage in, garbage out. Entonces, bueno, pues, a tenerlo en cuenta ser conscientes y sobre todo, pues, incluirlo en la documentación, que ya lo haremos un poco más de ahora. Y ojo al impacto medioambiental. Sabemos que tienen un gran impacto todos estos modelos. ¿Cómo mejorarlo desde vuestro punto de vista ahora mismo, eligiendo el tipo de energía? Puede ser renovable. O sea, el final es decidiendo qué regiones de computación utilizáis, si las GPUs son eficientes e intentar utilizarlas el 100% del tiempo. Y sobre todo, intentar reducir todo lo que podáis el tiempo de entrenamiento. En vuestro caso, hacer pruebas como de lospequeñitos o en colab, en máquinas un poco más pequeñas. Antes de ponerlo a entrenar, el gran, entre comidas, gran LLM, ¿vale? Y la documentación, por favor, es inútil un modelo que no tenga documentación. Entonces, por favor, escribid como lo habéis entrenado, con qué datos, cuáles es la evaluación, todo lo que podáis, ¿vale? También nos dejaremos una guía de cómo hacer estos tres pasos que he dicho ahora muy rápido. Y además, bueno, un comentario, es que no hay más excusas por la documentación porque será un requerimiento del futuro reglamento de IA de la web. Entonces, por favor, documentación. Y ya está, justísimo en 15 minutos. Vamos al primer taller, tenéis el enlace en la descripción y ahora os encuentro ahí con Gabriel. Muchas gracias y hasta ahora. [MÚSICA]
María Grandury
Taller: Argilla y distilabel, herramientas para crear datos de calidad, Gabriel @Argilla #Somos600M
Hola a todo el mundo de nuevo estamos en la segunda segunda semana del hackathon bueno al parecer en la charla anterior no para compartir las pantalas o sea mis mis diapositivas entonces no os preocupéis las voy a poner las voy a o las voy a subir como decía sí que están las inscripciones abiertas y hoy vamos a tener los dos talleres principales del hackathon vale primero vamos a ver con gabriel ingeniero de machine learning en argila como podéis utilizar argila y distil label para crear data sets de calidad y sobre todo para entrenar notus vale notus es una lm entrenada por argila a finales de año 2023 que tuvo muy buenos resultados en los benchmarks a través de la mejora de los datos de entrenamiento además gabriel nos va a enseñar cómo crear un data set similar utilizando un data set similar a lo utilizado en el fin de de notus utilizando estas dos herramientas que os comentaba al principio argila y distil label entonces bueno ya te doy doy paso a gabriel ya estás compartiendo las pantalas todos los positivos ahora sí entonces bueno podéis publicar vuestros comentarios para gabriel en el chat de youtube y al final del taller se las leeré vale entonces bueno muchas gracias gabriel bien venido y todo tuyo perfecto gracias pues nada como bien ha dicho maría en esta charla voy a estar hablando un poco sobre notus no que es un modelo una lm que entrenamos en argila a finales de año de 2023 y que tuvo muy buenos resultados sobre todo porque nos centramos en en analizar los datos y y mejorarlos y con ello bueno pues conseguimos muy buenos resultados y bueno empiezo explicando mencionando notus para ver si os sirve de motivación para para utilizar herramientas como argila y distil label que con las cuales podemos conseguir bueno pues unos data sets mejores de más calidad y en los cual podemos bueno pues evaluar distintos aspectos y también tener en consideración otros aspectos como filtrado de desesgos y demás cosas que bueno maría ha mencionado en su anterior charla bueno entonces vamos a comenzar nada no tus es una familia de modelos que creamos en argila y donde nos centramos sobre todo como ya he dicho en una en una mejora a través del modelo a través de la mejora de los datos es lo típico de si tienes mierda pues puede ser que entrenes algo que que sea de frente pero es cuanto mejor sean los datos mejor va a ser el resultado no entonces bueno antes de comenzar a describir un poco no tus no quiero recordar un poco también las fases de entrenamiento por las que pasa una lm entonces bueno tenemos la primera fase de entrenamiento no en la cual básicamente se construye un data set muy muy grande haciendo básicamente es creyping de páginas web de internet como wikipedia reddit está cover flow y bueno muchísimas fuentes más y bueno esta primera frase de entrenamiento es un entrenamiento no supervisado porque es no supervisado no hay humanos que estén etiquetando estos textos que se tienen de internet sino que lo que se hace es que se entrenar el lm metiendo más caras en los textos y el objetivo del modelo entonces es predecir la palabra que hemos enmascarado y entonces con esto lo que se lo que se intentan esta primera fase es que bueno el modelo aprenda un idioma y empieza a coger bueno obtenga conocimiento un poco más generalista no luego tenemos una segunda fase que es la que se conoce como la de super base finetino en el caso de de los elements instrucción finetino y bueno esta fase sí que ya tenemos un un data set que ha sido creado por humanos y bueno etiquetado por humanos o como veremos más tarde también puede ser que sea etiquetado por por otras lm y básicamente lo que queremos conseguir en esta en esta fase es te doy una instrucción a la lm y queremos una instrucción que es una tarea básicamente y queremos que aprenda a realizar esa tarea no entonces también le damos la respuesta para que aprenda con esto conseguimos que nuestra lm aprenda ciertas tareas o aprenda a hacer lo que para lo que nosotros queremosutilizarla pero aún no sigue quedando otra fase que es la de alineamiento en la fase previa la lm aprendió a realizar una tarea pero a lo mejor no ha aprendido la mejor forma para hacerlo o de la forma que queremos nosotros queremos alinearla por ejemplo para que lo haga de de una manera más honesta o por ejemplo si es un chatbot para que tenga en cuenta que está hablando con un humano y que y bueno y demás aspectos que podemos intentar que la lm aprenda entonces en este fase básicamente se construyó un dataset en el cual a nuestro modelo que hemos entrenado con super vice fine tuning básicamente le preguntamos varias veces lo lo mismo no y tenemos varias respuestas y luego tenemos un humano o otra lm diciendo cuál de cuál de las respuestas es mejor para nuestro caso no entonces con esto conseguimos un un dataset de preferencia no en el que básicamente tenemos una respuesta que es la elegida y otra que es la la que se ha rechazado y con esto pues intentamos que la lm aprenda esa intención que nosotros queremos darle y bueno sobre el alineamiento la primera técnica que se popularizó para para alinear la lm con nuestras preferencias fue el uso de de reinformer redding from human feedback no en el cual con los datos de preferencia que hemos creado entrenamos un modelo de un software model no modelo de que nos va a dar una escora o una recompensa para la lm entonces utilizamos la lm para generar una respuesta lo pasamos por el modelo de de recompensa y este modelo de recompensa básicamente lo que hace es darle una galleta a la lm y se ha portado bien o no darle nada o incluso quitarle comida si se ha portado mal por así decirlo y bueno lo único malo de este tipo de entrenamientos que es un poco inestable no y también añadimos entre el super base 21 y la fase de alineamiento como un paso intermedio que requiere entrenar el riguard model que suelen ser pues modelos como roberta pero bueno ya requiere esa ese paso de extra entrenamiento entonces lo que nos dio un poco la vida no a la comunidad o las ales es cuando se publicó direct preferencia optimización que básicamente es un algoritmo que también utilizando los datos de preferencia pero sin la necesidad de entrenar un un riguard model pues básicamente conseguimos lo mismo esto se consigue utilizando el modelo que hemos entrenado la fase 2 como modelo de referencia y lo comparamos con el modelo del cual estamos haciendo feint tuning para comparar las respuestas y mediante una función de pérdida muy chula que podéis leer en el en el paper y que yo no voy a explicar porque me tiraría todo el día y aún así no la haría bien pues se consigue se consigue esta alineamiento y bueno hoy nos vamos sobre todo a centrar en las fases de super base fan tuning y alineamiento creas dos deitas para para estas dos fases porque bueno por desgracia la fase de entrenamiento todavía no es no podemos hacerlo empresas pequeñas o incluso comunidades pequeñas porque bueno requiere requiere muchos recursos que sólo unas pocas empresas de momento tienen vale entonces bueno pues os voy a contar la historia de notas ahora y para empezar a contar la historia de notas pues tengo que empezar a contar la historia de de otra de otra organización bueno como sabréis a finales 2023 mistral bueno finales en 2023 mistral e hay público mistral 7b uv 01 que básicamente es un modelo de 7 billones o 7000 millones de parámetros si hablamos en español en castigano entonces bueno este modelo es fue pre entrenado con con datos de internet como ya he dicho antes y fue publicado y en su momento pues fue el mejor modelo pre entrenado de este tamaño y bueno del pues han nacido una infinidad de modelos uno de los modelos que han nacido fue cefir no cefir 7b que básicamente nació de un experimento de de un equipo de havin face de h4 del cual luiz tostar que que también es también ha estado aquí muchas veces en somos en el ep pues nada lo que ellos querían hacer es básicamente en validar que se podíaentrenar a un modelo con con dpo y para eso para ello preparan este pequeño experimento en el que primero hicieron un super vice 21 de utilizando ultra chat que es un modelo generado sintéticamente utilizando utilizando chat y pt y después hicieron un un alineamiento no utilizando dpo la técnica que mencionado antes y y ultra feedback que es otro data es similar a ultra chat pero en el que tenemos como ya he dicho antes preferencias no en una fila tenemos una una unas escores que nos permiten decir si si una respuesta es mejor que otra y bueno con esto y con dpo pues conseguiron cfir 7b que fue un modelo pues que a finales de 2023 obtuvo muy buenos resultados en los benchmark y bueno nosotros en argila desde vimos todo esto vimos que había una tendencia a crear datos sintéticos utilizando otras lm y decidimos crear distillable que es el el framework que voy a enseñaros un poco más tarde y que tenéis que utilizar en este jacato y bueno empezamos a desarrollar distillable y también queríamos probar otras cosas como si una fase si una segunda fase de dpo sobre cfir 7b beta mejoraría el modelo y bueno lo que nos encontramos o lo que hicimos al final fue esto volvemos a utilizar ultra feedback para utilizando también dpo crear notos 7b uv1 a partir de la versión cfir 7b super base 21 y bueno ahora os estábis preguntando que qué diferencia hay entre notos 7b uv1 y cfir 7b beta porque los dos utilizan ultra feedback para hacer esta fase de alineamiento pues la diferencia es que nosotros cogimos ultra feedback y le pusimos una una tirita porque nos encontramos que tenía algún fallito y como nos dimos cuenta de estos fallitos bueno pues básicamente subimos el data sentí ultra feedback a argila y nos dimos cuenta pues que había algunas puntuaciones para para las respuestas que se habían seleccionado que eran muy altas sin embargo si miramos si mirábamos la la crítica que había hecho la lm que también había sido de esa nota pues no tenía sentido no tenía sentido porque bueno en este caso por ejemplo cuál es un animal libro o bolígrafo bolígrafo es un animal el libro es un animal y bueno insisten que el bolígrafo es un animal claramente está mal está fatal de hecho pero habis aparecía como la respuesta elegida y con muy buena nota con un 10 entonces bueno nos dimos cuenta de que la pipeline que habían generado bueno que habían utilizado el grupo de investigación que creo ultra feedback que fue open bmv pues tenían un bug en el cual repitieron bueno había 2.000 filas afectadas por este bug en el cual básicamente la respuesta elegida era muy mala pero sin embargo se la había puesto una escora una puntuación de 10 entonces bueno utilizando arreglando esto y luego también también nos dimos cuenta de que bueno en ultra feedback por cada fila se y por cada respuesta no se estaba generando una crítica al a la respuesta a la cual se le estaba asignando un escore entonces por ejemplo en el trafico si para una respuesta si para un prom teníamos tres respuestas se estaban haciendo tres ricos a gpt4 con cada respuesta y se le estaba preguntando que se le diera darle una escora esa respuesta y bueno y una y una explicación detrás de esa escora y luego a la vez también se había hecho más o menos el mismo proceso pero si teníamos tres respuestas las tres respuestas fueron enviadas en el mismo en la misma petición a a pn a gpt4 para que más o menos hiciera lo mismo que les diera un escor y una explicación detrás de cada escor y cuál es la diferencia diréis entre entre estas dos maneras de bueno de obtener más o menos el mismo deitas pues que en uno estamos pasando las respuestas todas a la vez entonces esto le permite a la lm también compararlas y y también determinar cuál es mejor que la otra sin embargo en esta de la izquierda como ya se ha comprobado también en en recientes estudios pues las lm entre ricos no son las puntaciones que dan no son consistentes entonces bueno nosotros decidimos crear un data set de ultra feedback utilizando estas este método no estas escores que sehabían generado con una sola petición y bueno lo que conseguimos básicamente replicando la receta que compartieron los chicos de havin face que por cierto muchas gracias porque fue muy bueno ayudado muchísimo y y bueno y también hicieron ver que dp o realmente funcionaba pues básicamente entrenamos notos 7b uv 1 que superó a cfil bueno no supera cfil en en mt benz que es un un benchmark pero sí que conseguí acercarse muchísimo muchísimo sin embargo en alpac a val val consiguió casi un punto más y fue incluso mejor que clau de dos que es un modelo que seguramente sea bastante más grande pero no sabemos porque es privado entonces bueno con esto espero que os haya servido de motivación para para para utilizar herramientas como distilable para generar datos sintéticos y no sólo quedarse ahí sino también subir esos data set que han sido generados sintéticamente a una plataforma como argila y evaluarlos y anotarlos a través también de humanos o expertos para para asegurarse de que el data set creado es es bueno y con el que vamos a entrenar una una lm entonces bueno ahora voy a compartir un pequeño notebook que he creado y os enseñaré un poquito distilable y argila y cómo crear un data set con para para super vais fine tuning y y también y p o vale pues espero que podáis podáis estar viendo mi pantalla creo que sí sino decirme lo que alguien me grite por favor y vale pues nada en este en este notebook lo que vamos a hacer es básicamente cargar un un data set en este caso vamos a cargar el de un data set de bueno un subset de de la wikipedia no de artículos en español y lo que vamos a hacer es generar un un data set para super vais fine tuning y más tarde un data set para para dp o para entrenar una para alinear una lm con dp o entonces bueno básicamente bueno ahora un poquito de código estándar no importamos data set y cargamos el data set del havin face hub en este caso wikipedia le decimos que queremos el subset de español y bueno el data set de la wikipedia es bastante grande entonces le vamos a decir que que no lo cargue que nos lo vaya que nos lo vaya dando poco a poco desde el havin face hub bueno que más unas funciones vamos a crear unas funciones no que permitan filtrar un poquito el data set en este caso no me interesan los artículos que son de desambiobación son estos artículos que bueno pues una palabra puede tener varios significados no varios artículos entonces no queremos esos esos esos artículos los vamos a filtrar si perdona que te interrumpa un poquito puedes aumentar y así lo verán mejor sí perfecto vale pues continuó y bueno luego vamos a filtrar artículos en los artículos no queremos mi artículos muy cortos ni tampoco muy largos y nada y por último se limpiar un poco el texto eliminando estas cosas que suelen estar al final de los artículos de wikipedia como enlaces externos referencias bibliografía que no se interesa mucho y bueno con esta función vamos a ir iterando el data set y trayéndonos filas desde el havin face hub para construir un un pequeño subset no entonces bueno el el data set que generamos básicamente va a tener en cuatro columnas el id del artículo la url y el título y el contenido del artículo vale entonces una vez que tenemos el el data set vamos a vamos a generar un un data set a partir de este cortus en crudo por así decirlo que hemos traído de artículos de wikipedia utilizando una cosilla diferente a la que a la que a lo otro que hemos compartido en el notebook que ya compartimos hace unos días en este caso vamos a utilizar y en estruz 7b que es una lm que fue recientemente publicada por no es research la pasada semana y bueno me ha parecido muy interesante no porque lo que nos permite esta lm es generar pares de instrucción y respuesta pero a partir de de una fuente que nosotros le digamos no entonces esto está muy bien porque hay otras alternativas para generar de estos estas instrucciones como selfie strut pero en ese caso podemos sufrir los efectos algún efecto adverso de las lm como las alucinaciones con con esteenfoque de pasarle un contexto por así decirlo bueno es un contexto podemos evitar más las alucinaciones porque la esta lm para lo que se ha entrenado es para generar una instrucción y una respuesta a partir del contexto y bueno también es muy interesante porque bueno si digamos que yo que sé tu empresa o tú tienes una base de datos bastante grande con datos en español pues también con esta manera utilizando esta lm puedes generar instrucciones y respuestas para luego hacer feint y un de de otra lm que tú puedes utilizar ya y que va a estar entrenada y y alineada para para la tarea que tú quieres desempeñar entonces bueno también me viene al pelo no un poco lo de la de genestru porque genestru ahora mismo no está integrada en distilable pero bueno me viene bien porque así también os puedo explicar un poco los bloques principales de distilable y cómo podemos implementar estos estos bloques para para hacer una cosa un poco más un poco más custom un poco más personalizada entonces bueno distilable básicamente tiene dos componentes principales no que son una lm una clase lm o extracción que básicamente es la que se encarga de nada dado dado un prom pues es la que sabe utilizar la lm ya sea open hay un modelo o pensar como lama o utilizando otros frameworks como vlm o lama cpp bueno pues sabe utilizarlo y dado un prom nos va a dar una respuesta y luego tenemos otro bloque que es la tarea una tarea básicamente define lo que tiene que hacerle el el y cómo cómo hace esto cómo lo consigue pues básicamente haciendo prom bien y en el y la tarea define un un bueno un molde no en el cual dadas unas entradas se construye este prom la tarea lo construye construye el prom se lo pasa a la lm la lm devuelve una salida y esta salida generalmente también va a estar estructurada de cierta manera por la cual la la tarea utilizando técnicas más mondanas o normales como regular expresión expresión es regular eso simplemente pues eso comprobar si si empieza con o cosas así más normales podemos extraer esa información vale pues entonces lo que estáis viendo aquí básicamente es la implementación que he hecho para de una tarea para para que funcione con genestruz en genestruz espera este perdón que le tengo aquí arriba este prom entrada en el cual le pasamos un título como podéis ver campeonato mundial de oracesto sub 22 masculino de 1997 y después le pasamos el contenido del artículo en este caso pues nada habla sobre el campeonato mundial de baloncesto sub 22 masculino del año 97 en el cual fue fue melburn y ganó australia puertorrico por desgracia entonces bueno entonces le daremos esto como como entrada la lm y la lm nos devolverá algo similar a esto que equipo fue campeón mundial de baloncesto sub 22 masculino en 1997 lo que ha hecho la lm aquí es actuar como que ella es el usuario no y lo que ha hecho es generar una instrucción generar una tarea y luego si si vemos a continuación nos ha devuelto también la respuesta es a pared y todo esto lo ha hecho utilizando la información de contexto que nosotros le hemos pasado y bueno en este caso es como muy obvio lo que ha generado porque a lo mejor el artículo tampoco tenía mucha más información pero si el artículo es largo y contiene varios puntos o varios tópicos pues genera cosas más más complejas digamos entonces nada le ha preguntado a general instrucción de que quien ganó y básicamente ha contestado pues que ganó australia y que tuvo lugar en melburna y todas estas cosas que hemos visto antes vale entonces volvemos a la implementación de la tarea perdón una tarea en distilable básicamente tiene que definir cómo generar un prom en este caso básicamente hemos definido este molde no que tiene síntasis de yinya 2 que es un framework para para construir eso templates y nada lo que lo que va a recibir son las columnas que tenemos en nuestro de hitas que hemos creado anteriormente entonces si recordáis teníamos el titulo el contenido y bueno aquí está como opcional los mensajes queveremos más tarde para para que los podemos utilizar cosas importantes una tarea también tiene que definir cuáles son las entradas que necesita el título el contenido de los mensajes y qué es lo que va a generar en este caso va a generar una una conversación que básicamente va a ser una una lista de cadenas de texto en la cual los índices pares serán un mensaje de un usuario los los impares de de un asistente de inteligencia artificial y luego lo último ya es definir una función que recibirá la salida del lm y que será capaz de de eso de procesar esta salida para para obtener en nuestro caso la interacción del usuario o la instrucción que ha dado el usuario que en este caso es mentira porque es el lm en lo que está generando y y la respuesta que ha dado el asistente entonces de esta manera lo que vamos a conseguir es utilizando datos que ya tenemos que sabemos que son verdad o creemos que son verdad vamos a generar instrucciones y y respuestas que luego podemos utilizar para hacer super base 21 de de otra lm vale en este caso en el notebook en el primer notebook que os compartimos si no recuerdo mal se utilizaba los infern en points de having face que también muchas gracias porque para esta jacatón bueno nos han dado el pier de enterprise en la organización de somos en el ep y gracias a ello podemos utilizar otras lm como veremos más tarde más grandes como lama 2 de 70 billones o mixtral no confundir con mixtral y entonces bueno pues muchas gracias también pero en este caso y de manera alternativa pues vamos a utilizar vlm que básicamente es un framework para la inferencia de lm y bueno en inferencia en batch ahora mismo es es la más rápida es el framework más rápido sin sin diferencia al menos por lo que yo he podido probar y bueno lo que vamos a hacer es cargar y en estru en este caso lo he cuantizado no es la versión original esta es una versión cuantizada que he creado yo de ahí utilizando a vdk y esto es porque en los notebook de colap gratis tenemos una t4 y el modelo original no entra no entra una t4 o entra muy justo y en cuenta como se inferenciaba nos va a dar un error entonces con a vdk si que funciona bastante bien el modelo y bueno una t4 da de sobra para hacerlo entonces genial pero bueno si tenéis una gpu más contáis con una gpu más potente con más vram pues os recomiendo que utilicéis directamente el original que es no result y barra en estru 7b vale pues luego como he dicho antes tenemos la task y tenemos la tarea y la vlm entonces creamos una task y básicamente como system prompt que no es un system prompt como tal porque lo estamos colocando aquí entre medias pero es un poco el hack que he hecho para poder implementarlo básicamente le estamos diciendo la siguiente interacción es entre un usuario que solo sabe español tenemos que insistirle un poco en que solo sabe español y que el asistente también es solo sabe español o que va a contestar en español porque si no nos va a generar texto en inglés mistral 7b que es el modelo pre entrenado por el cual se ha hecho y del cual se ha hecho fin tuning para generar y en estru sí que funciona bastante bien en español pero sí que es verdad que en algunos casos bueno como ha dicho maría pues tiene estas respuestas un poco de español muy neutro no y también hay veces pues que no nos hace caso y también nos va nos va a responder en inglés entonces bueno es importante tener una fase de verificación después de generar data set como veremos después y vale ahora vamos a generar a crear la lm en la básicamente tenemos esta clase de vlm en distilable que es un un wrapper un envoltorio de la clase original de de el vlm entonces le pasamos el modelo que hemos cargado la tarea que queremos que realice y también le decimos pues que queremos que que genere 512 nuevos tokens como máximo le ponemos una temperatura así medio medio alta no porque queremos que tenga un poco de variabilidad en las respuestas que genera y luego bueno le pasamos un prompt en facción que estotambién es un poco hack que he tenido que hacer el implementación para que funcione así que nada básicamente la función recibe el prompt y devuelve el prompt es decir no hace nada de expedición vale y luego lo que hacemos es instanciar una pipeline una pipeline que tiene un generador que en este caso es esta lm y en strut con la tarea de y en strut vale y bueno entre medias nada seleccionamos unas cuantas columnas del data set que hemos cargado y nada añadimos una columna de mensajes en este caso con mensajes vacíos y ya veremos después por qué y nada creamos esta función para para arrancar la generación del dataset y generamos el dataset y como podéis ver aquí pues nada distilado el comenzará a a generar datos utilizando la lm y la tarea en batch porque le hemos puesto que lo haga con un batch de tamaño 50 y el data se que hemos creado tiene más o menos 500 filas pues nada en 10 batches lo tiene y esto bueno la verdad es que es bastante rápido creo que hay 10 9 minutos y la verdad que bueno en 9 minutos 500 instrucciones y 500 respuestas está bastante bien vale entonces el dataset que nos devuelve la pipeline de distilable es un dataset del hub por lo que podemos perfectamente subirlo al hub in face hub y nada si lo subís no se diréis como ha dicho María de documentarlo todo y y nada y antes de subirlo también comprobar comprobar lo que sé lo que ha generado la lm y bueno para ello pues lo que podemos utilizar es argila no entonces para subir el dataset que hemos generado vamos a tener que hacer un poquito de post procesamiento en este caso nada vamos a decirle que la columna de conversación que es la que generaba la tarea de y en estru nos la ponga en un formato de lista no en la cual tenemos diccionarios y el diccionario básicamente contiene una clave que es rol que es usuario y o asistente y un mensaje que es el mensaje no vale entonces con esto ya lo que podemos hacer es subirlo a argila vale cómo desplega más argila pues la solución más fácil para desplegar argila es venirse aquí al hub en face hub venir aquí le dais a nuevo espacio y en docker aquí le dais a argila y con esto nada en dos minutillos tenéis un un espacio de hub in face hub con argila desplegado que podéis utilizar continuó vale bueno importamos argila y nos conectamos al espacio que hemos creado y luego bueno hacemos un poquito de esto también básicamente es una función para para formatear los mensajes que nos ha dado la lm como si fuese un chat algo así como lo que tienen en el hub in face chat y hoy y nada creamos un dataset de de argila que básicamente pues va a tener en tres campos de texto el título y el contenido que es lo que hemos la lm ha utilizado como contesta para generar las instrucciones y las respuestas y y bueno la conversación que se ha generado y luego vamos a definir unas unas preguntas para darle una puntuación a la conversación generada y también le vamos a vamos a preguntar al al humano no que si que si la que se ha utilizado la lm ha utilizado la información de contexto para para la conversación generada porque puede ser que no la haya utilizado y en ese caso puede haber cometido errores entonces bueno podemos luego filtrar también estas filas entonces bueno esto es un poco código repetitivo para subir el el dataset de argila y y crearlo y bueno básicamente lo que hacemos es un puesto de argila y si venimos aquí tenemos el el dataset que nos ha generado no tenemos el título el contenido del artículo y tenemos también lo que nos ha generado la lm en este caso bueno la interacción que hice el usuario no se pronunció este nombre así que me vais a ordenar compití la década de 1960 ganó una medalla de bronce la competición individual colina grande que medalla ganó que yo no se pronunció y bueno la lm nos ha contestado pues ganó una medalla de bronce la competición individual de colina grande y como podéis ver pues ha generado un poco de texto en inglés no entonces es por eso que también es muy importante que no confíeis en lo que esciegamente lo que ha generado la lm y que subáis las cosas también argila para para revisarlas manualmente o utilizando otras heurísticas para detectarse y texto en inglés o bueno otras alternativas entonces bueno esto le vamos a poner que una puntuación de está medio bien pero claro luego ha puesto el inglés entonces le vas a poner un casi aprobado o suspensos total la verdad no queramos inglés y bueno sí que parece que ha utilizado la información de contexto no entonces la decimos que sí y nada y enviamos esta información para luego es que alguien la procese y utilizando la etiqueta lo que ha hecho el humano construir un data set una segunda versión del de y ta set ya más como se suele decir en inglés con golden labels es decir con labels que ya son se saben ciertamente pues que está que está bien vale entonces me quedan cinco minutos así que me voy a dar pricita vale como se he dicho antes por ahí en el data set del principio teníamos una columna mensajes no que al principio estaba vacía y porque estaba vacía bueno pues la idea que os doy también para para este hackath es que podéis ejecutar una segunda iteración o incluso una tercera iteración utilizando este modelo para para generar eso conversaciones más largas y también pues entrenar una ila m que sea también mejor en español que sea mejor para para chat no que no sea sólo te dé una instrucción me das una respuesta y a partir de ahí ya todo mal no que sea que tengamos datos con varias e bueno varias interacciones de chat y y poder reentren una lm en español eso que sea mejor para chat entonces bueno lo que hemos hecho aquí un poco más arriba es generar este data set iteración 1 y esto si venimos aquí y hacemos mesa y 0 pues como podemos ver tiene el mensaje del usuario y el mensaje bueno la instrucción del usuario y y la respuesta del asistente entonces lo que vamos a hacer ahora o lo que va a hacer la tarea de genestru task es que va a incluir también esta información entonces lo que va a hacer el lm ya es generar una instrucción o una una instrucción del usuario y una respuesta del usuario pero ya para un segundo turno entonces bueno básicamente volvemos a ejecutar esto que va a hacer lo mismo que arriba y si venimos a la tarea aquí porque también hemos subido a la tenemos una segunda iteración en la que ya tenemos como podéis ver pues es un segundo turno vale entonces pues de esa idea por si la queréis utilizar y compartir el notebook también y bueno muy rápidamente voy a contarla del dp que no me quiero meter en la en la charla de mano vale dp ahora no recordemos que es este de tasset que básicamente tenemos una instrucción preguntamos a una lm varias veces o a distintas lm que nos genera una respuesta y etiquetamos cuál es la mejor y con estas datos de preferencia entrenamos otra lm para que se alinea se alinea eso entonces bueno muy rápidamente vale lo que voy a hacer dime tranqui no pides o sea mejor que lo expliques bien y empezamos unos minutos más tarde el de mano yo creo porque casi todo el mundo que vaya el de mano está aquí ahora o sea que vale vale perfecto entonces o sea no te prisa pero tampoco te saltes cosas importantes no te preocupes vale gracias nada pues lo que vamos a hacer es un primer paso para llamar a la pipeline de distilable es exactamente igual que la de arriba lo que pasa es que esta vez le vamos a decir que genere que para una instrucción genere bueno que para una instrucción que para una fila genere otras tres filas por así decirlo no entonces lo que vamos a conseguir es varias instrucciones y varias varias respuestas y luego lo que vamos a hacer en una segunda fase es crear una tarea de ultra feedback no que es básicamente la la tarea o el template o el prompt template que utilizaron la gente de opn bmb para utilizar chag ppt para para eso para etiquetar dada una una instrucción de entrada y varias respuestas pues lo que la lm va a hacer con esta tarea es decir cuál es la mejor de las tres respuestas para esa instrucción y también nos va adar un una explicación entonces nada vamos a generar las respuestas como hemos hecho arriba para el data set de super by fine tuning y después vamos a hacer un poco de formateo de la salida para que la podamos dar a otra feedback porque requiere las columnas de input y generación en el data set de entrada como podéis ver aquí entonces input por ejemplo a cero esta es una instrucción y luego si me vengo y imprimo en erasión 0 pero en erasión 0 tengo la primera respuesta que se ha dado para esta instrucción si le doy el uno tengo la la segunda que se ha dado y si le pongo el dos pues tengo la tercera respuesta que se ha dado para esta instrucción vale entonces para utilizar model tareas como ultra feedback si que os recomiendo de utilizar modelos que sean más grandes no que tengan un poquito más de de lugar o de o que hayan aprendido más cosas y que puedan hacer esta tarea con más facilidad entonces en este caso sí que decide utilizar los infren en points de haguin facebook y le estoy diciendo que utilice mixtral que es un modelo también de mixtral pero un poquito más potente y grande para hacer este etiquetado con otra feedback y nada eso os recuerdo que tenéis que estar en la organización de somos en el depen haguin facebook para poder utilizar este modelo de manera gratuita y nada si estáis dentro pues veréis este mensaje de usings server les infern en point lo que significa que todo ok vale entonces ejecutamos la pipeline utilizando esta lm como etiquetador y generamos el data set para depio vale en este caso como la tarea está bien integrada en distilable bueno podemos empujar el data set al haguin facebook y también la podemos subir a argila de manera automática y lo bueno de esto es que este método va a generar también metadatos de manera automática y también vectores que podéis utilizar para para hacer búsqueda por similaridad en la interfaz de argila entonces nada volvemos a subir el data set a argila y si volvemos aquí y venimos aquí pues nada tenemos un data set un poco más distinto en el que tenemos un campo que es el input donde está la isla de man on y y tres generaciones y bueno y como podéis ver aquí tenemos unas cuantas preguntas que las podrías haber puesto en español pero claro es que se ha generado automáticamente y y bueno aunque los podemos cambiar podéis venir aquí y en cuestiones ponerle en español no lo voy a hacer ahora que si no no era tiempo pero bueno básicamente mixtral lo que ha hecho es coger la instrucción y las generaciones y les ha puesto un score una puntuación y nosotros utilizando la característica que tiene argila para para añadir sugerencias pues hemos autorrellenado estas preguntas que tenemos aquí a la derecha entonces cuál es la puntuación que se ha dado la generación 1 3 cuál es la que se ha dado a la generación 2 5 y cuál es la que se ha dado la generación 3 4 aún así podemos leerlo y comprobar que esto está bien si vemos que no está mal o que está mal y que eso que la etiqueta normal pues podemos venir aquí y ponerlo en 2 en este caso vamos a dejarle el 5 lo que significa que esta generación 2 sería la respuesta elegida para esta instrucción y luego podemos bien o elegir esta generación 1 o generación 3 como la respuesta rechazada y nada aquí también tenemos cuál es la la explicación del de la puntuación que ha dado la lm entonces bueno podemos pasar y nada ir etiquetando y reisando lo que las bueno el etiquetado automático que ha hecho un mixtral vale entonces luego cosas más interesantes a lo mejor queréis encontrar instrucciones que sean similar a esta pues lo que podéis hacer es clicar aquí en o a las generaciones porque bueno a lo mejor una generación ha sido muy mala y muy característica entonces podemos buscar generaciones similares a eso pero en este caso vamos a buscar filas similares al input entonces distilé y vola automáticamente cuando hemos hecho la lectura gila ha generado también unos vectores para hacer búsqueda por similaridad y ahora pues desde la yuai podemos hacer esto no fine y nosva a encontrar uno que sea similar en este caso pues el modelo que habrá utilizado es en inglés entonces la gente el vector que ha generado no es muy bueno y nos está diciendo que esto es un 85 por ciento similar pero bueno entre comillas y bueno luego que más podemos hacer para filtrar rápidamente o para buscar récords en argila podemos utilizar los filtros y por ejemplo queremos ver las generaciones bueno las instrucciones más largas por venimos aquí le decimos filtrame las que las que tengan entre 389 493 caracteres y ya de esta manera nos las va a filtrar y vamos a poder ver las las instrucciones más largas que más bueno también lo mismo para la longitud de las generaciones y bueno también una vez que hemos etiquetado también podemos ver podemos filtrar por la por la puntuación que hemos dado por ejemplo en este caso no hemos dado ninguno entonces no hay y luego también podemos filtrar por las sugerencias de mixtral por ejemplo podemos decirle pues el escore esto está regular e dame las que tienen nada un escor entre 0 y y 0 69 vale entonces nada aquí más o menos bueno más o menos acabo y nada espero que que os haya sido de ayuda y y por la disfrenal pues nada muchísimos datos en español para entrenar el lm es que nos hacen falta sin totalmente nos hacen falta muchas gracias a abril la verdad súper súper completo el taller también con muchísimas gestiones y tal motivando obviamente con nuestro caso de éxito que fue notus y después el el notebook lo tiene todo el mundo a que después me lo pasa si es igual repó lo comparto en discord lo subo a la página web así cada persona como lo que estáis buscando o sea utilizando como como sitio de referencia para encontrar la información del jacatón lo tendréis ahí no sé si hay alguna pregunta así un poco rapidita y si no igualmente deciros que el equipo de argila bueno como todos los años son súper simpáticos o sea que están en discord y también os podemos o sea les podemos reenviar un par de preguntas si tenéis por ahí vale te voy a hacer una porque lleva ahí mucho rato entonces creo que se lo merece dicen aún modra pre entrenado se le puede agregar nuevo conocimiento que no haya estado en el corpus inicial yo creo que además es bueno es decir un proceso no es vervisático y propósito no sea cual instrucción pues esta es muy buena pregunta y de hecho bueno gente del del barcelona super compitio en center ya ya hicieron esto y sacaron águila 7b que básicamente pues es una continuación del pre entrenamiento de falcon 7 y entonces sí que es algo que no es sencillo de hacer no tiene cierta complejidad y bueno una de las primeras cosas que hay que hacer también no es cambiar el el toquenizador no que es la pieza que dado unos unas palabras no nos las transforma en una en bueno primero nos los nos corta las palabras en trocitos no nos transforma en tokens y esas tokens les asigna un idea y porque es importante primero cambiar el toquenizador para tener uno que sea más especializada de español porque los que están entrenados con datos sobre todo del inglés bueno pues las palabras en español las dividen en en más trocitos no entonces al final es peor entonces bueno lo que hicieron este grupo del bsc es eso cambiar el toquenizador para entrenar uno que fuera con datos primariamente del español y del catalán y continúa el pre entrenamiento de falcon 7 y sí que consiguieron resultados bastante buenas pero repito es un proceso complejo y que también requiere pues tener muchas gps como tienen en el bar de la súper computing si de hecho estaba creando ahí una una colección de modelos que tenemos así pre entrenados y también es de para instrucciones en español que acabo de compartir así que bueno ahí más pero muy bien la respuesta y otra pregunta que vamos a hacer es que es más de argila si es una forma de cambiar la respuesta dentro de la plataforma si yo en este caso no he creado una pregunta de texto pero tú en tu data set puedes crear una pregunta de texto que sea por ejemplo si está malla respuesta que ha dado la lm corrígela y la y la puede lo que puedes hacer es bien copiar la respuesta modificar las partes que que están malos reescribirla completamente que es de hecho lo que estamos haciendo en el en la otra parte de jacatón para para esa para traducir mejor los los datos que hay para para hacer pens marquín del elense al español tal cual lo dejo aquí o sea podéis entrar en hf.co o sea la hainfase vale la organización de somos en el epe y está ahí el espéis y efectivamente es lo que dice gavriel en plan ahí si está mal traducido si nos ha traducido para nada o lo que sea podéis sobre escribir digamos mejorar la la traducción entonces sí que se puede genial pues hasta aquí muchísimas gracias gavriel creo que le ha encantado a todo el mundo se ha quedado todo el mundo hasta el final cosa que siempre es buena señal o sea que muchísimas gracias y ya estará próxima gracias a vosotros a lo mejor
Gabriel @Argilla
Taller: Entrenamiento de LLMs con datos de calidad, Manu Romero @MAISA | #Somos600M
En el mundo continuamos con los talleres de nuestro hackathon, somos 600M. Como sabéis, nuestros objetivos son crear recursos diversos, abiertos y de calidad de procesamiento del lenguaje natural en español. Ya hemos tenido un taller que acaba de terminar. Super interesante con Gabriel de Agila, es ingeniero de Machine Learning allí y nos ha explicado cómo crear data sets de calidad utilizando Agila y Distill Label, que son los herramientas que han desarrollado. Y por el principio nos ha enseñado su caso de uso, el modelo Notus. O sea, su caso de uso, sí, que tuvieron mucho, mucho éxito, caso de éxito, eso, del modelo Notus. Y después nos ha enseñado cómo podemos utilizar estas herramientas para desarrollar nuestros propios data sets y después de utilizarnos para entrenar nuestros LLMS. Ahora vamos a continuar con la importancia de la calidad de los bases de datos con Manu Romero, a quien le doy la bienvenida. Bueno, casi todo el mundo aquí ya le conocerá, ha dado un montón de charlas para somos un LPA y también en todo lo que es el ecosistema de Hi-In Face le conocemos mucho porque ha entrenado un montón de modelos. Creo que ya oficialmente has llegado al 500, Manu. -Más cierto, de seguro más cierto. -Incredible. Entonces, bueno, obviamente es una persona muy indicada para enseñarnos cómo hacer, bueno, entrenar estos modelos y también a la que yo creo que vamos a hacerle caso, sí, todavía nos ha quedado claro que necesitamos data sets de calidad para entrenar nuestros modelos. Entonces, bueno, bienvenido, Manu. Muchísimas gracias por preparar este taller y comparto tu collab y todo tuyo. Para la gente que no estáis viendo en directo, podéis preguntar las preguntas en el chat y yo al final del taller se las voy leyendo a Manu. Vale. Adelante, todo tuyo. -Vale, pues, bueno, no sé si veis bien el cola o quieres que haga un poquito de zoom. -Igual, un poquito más. -Sí, así, una cosa así. -Un poquito más. -Venga. -Ay, yo creo, para que vean bien el código y tal. -Vale, si no me interrumpen, María, y vamos, voy haciendo zoom. Vale, bueno, pues, cuando hablaba con María un poco de algo muy importante, ¿no? Que está tomando mucha relevancia en el mundo del NLLP o en concreto en el mundo de los LLMs, pues consideramos que ya tocaba un poco crear igual un ejemplo en tu N de principio a fin de cómo la calidad de los datos sobre la cual entramos en nuestro modelo, ya sea fine tuning o incluso pretraining, pues afecta en la calidad también del modelo resultante. Al final, ¿no? Hay una ley, ¿no? En programación se dice mucho de "Gerbichin, Gerbichout", ¿no? Que es como si insertamos basura o obtenemos basura y los LLMs no son la excepción, ¿no? Todo es creo que como modelos como, por ejemplo, FI2 de Niklosov, que tú el mundo lo conocerás o stable LLM, la versión 2 también, que son modelos más pequeños, pero que consiguen un rendimiento bastante importante gracias a entrenar en datos sintéticos de alta calidad, especialmente el libro de texto, ¿no? Es una como algo muy natural, ¿no? De cómo nos enseñan nosotros, ¿no? Nos enseñamos cuando íbamos a la escuela, al colegio o al instituto, ¿no? Basado en el libro de texto, pues generando esos libros, porque lamentablemente no hay mucho digitalizado de ese estilo y menos en español, digamos, que se consigue, ¿no? Datos de calidad que como resultado dan modelos que luego rinden muy bien en los Benzbar y no es que lo diga yo, sino que ahí están modelos como FI2, de los billones de parámetros, que se acerca a algún modelo de 7 billones, ¿no? Mucho más grande. Pues, bueno, vamos a ver un poco eso, ¿no? Es ejemplo de Entwenn, en el que veremos también cómo hacerle el FI2 y no al modelo, ¿no? Si alguien quiere reproducir el experimento entero. Y, bueno, como dice María, yo creo que conocerme, me conocéis todo ya, pero, bueno, un poco acerca de mí. Ahora estoy trabajando de CSO en Maesha, que es como se han renombrado la antigua Kiribren. Y, bueno, colaboró bastante con Javi and Faiths. Hoy,como ha dicho María, pues, de las personas que más modelos se ha aportado al Javno, algunos de ellos con muchísimas descarga al me, 20 millones de descarga, el bajador de Javi and Faiths, también, participé en el proyecto de BigSci and the Big Code, que era como una especie de intento de hacer un GPT3 abierto a todo el mundo y un co-pilot, ¿no? Para código también abierto. Y, bueno, antes de esto, estaba en narrativa, también como ingeniero de NLP, con María, cofundé, somos NLP, y mi formación es Computer Science, hago ingeniería informática y hasta que me metí hace, pues, no sé, ya cinco o seis años, ¿no? En esto de la día, en concreto, de los modelos de lenguaje, pues, ha hecho bastante bacan. Y, bueno, pasemos, no directamente, a ver un poco los beneficios, ¿no? de entrenar, porque aunque lo que vamos a ver es un ejemplo de fine-tuning realmente en el pre-training también, en la fase, estátos fases, ¿no? Que tienen los modelos de lenguaje, pre-training y post-training, pues, tienen la de pre-training, también es muy importante, igual de importante o más, que tengamos esos datos de calidad, ¿no? Que ese corpus sea de calidad. Entonces, ¿qué beneficios tiene de eso? Pues, tiene beneficios como es alignment, ¿no? O alineación y adquisición de conocimiento, ya que estos datos de alta calidad, pues aseguran que el modelo aprende información precisa, de ahí que se utilicen muchos libros de texto, últimamente, comportamiento apropiado, ¿no? Qué es crucial para que el modelo, pues, pues se alinea al final con objetivos humanos y adquiera conocimiento durante ese pre-training. Con ello también conseguimos que tenga un mayor rendimiento y capacidad de generalización, ¿no? Entrenas con datos de mala o baja calidad, puede afectar muy negativamente al rendimiento de esto. Mientras con datos de alta calidad, pues, ayudan, por ejemplo, a reducir seco y mejoran la capacidad de fiabilidad y capacidad de generalización que tiene el modelo, que acerna en lo que importa, ¿no? ¿Cómo devuelve generalizando ese modelo? ¿Respondiendo o enfrentando ese escenario que no ha visto, ¿no?, en su dato de entrenamiento? El modelo de lenguaje y, en general, todos los modelos de día se entrenan con ese propósito, ¿no? Con que rindan bien en casos que no han visto durante el entrenamiento, porque en casos que han visto durante el entrenamiento, ya suponemos que rindan bien. Y si le preguntamos por las mismas cosas que ha visto, seguramente se la sepa, pero de memoria, ¿no? Tenéis en cuenta que estamos hablando de modelos de billones de parámetros, con lo cual, a la vez, es probable que memoricen cierto contenido. Es bueno también que tengamos datos de calidad de cada la eficiencia y escalabilidad, ¿no? La calidad de los datos afecta significativamente a la eficiencia del proceso de entrenamiento. Datos de alta calidad permiten una escalabilidad más eficiente de los parámetros del modelo y pueden conducir un modelo más eficiente también en términos de cómputo. Esto quiere decir que si tengo muchos datos, pero muy noisy, o contienen información que no aporta mucho valor o información que realmente no le hace al modelo aprender nada nuevo, pues seguramente el data es muy grande, llevará más tiempo que el entrenamiento, que el modelo vea todo ese texto de manera completa, pero al final no tiene por qué tener ese modelo que obtengamos, mayor rendimiento que un modelo que ha visto menos tokens o que el data se den más pequeño, es un data set más condensado en datos que realmente aportan información, como son, me repito una vez más, no, los libros de texto. También un córpulte de calidad va en pro de la diversidad de los datos y experiencia en el dominio, ¿no? Un conjunto de datos diversos y de alta calidad, pues, permitan los LNN a los LNM, perdón, adquirir un amplio rango de conocimiento y demostrar fuertes habilidades de generalización en varios dominios, ¿no? Los conjuntos de datos especializados, pues, tambiénpueden proporcionar los LNN habilidades específicas para resolver problemas. Luego, desde el punto de vista del preprocesamiento y gestión de datos, pues, la gestión efectiva de datos, no incluyendo estrategias de procesamiento como la de duplicación, filtrados de calidad, filtrados por toxicidad, pues, al final, acaba siendo esencial para construir datas adecuadas, ¿no? Y este proceso, especialmente el preprocesing que le llamamos, influye especialmente en la capacidad del modelo para aprender de manera más eficiente y desempeñar nuevas tareas. Luego, futuras direcciones y desafíos, en este área de crear data set de calidad, pues, hay un enfoque creciente, como he comentado, en mejores conjuntos de datos para el pre-training, en lugar de entrenar con todos los datos disponibles. El equilibrio entre la calidad y la cantidad de los datos sigue siendo un área de investigación activa a día de hoy. Los datos de alta calidad, pues, pueden permitir entrenar modelos más pequeños que desempeñan de manera comparable a modelos grandes, como estamos comentando, el caso de FII, de Stable LM2, de Stability. Pero esto también implica que existen esos riesgos como sobreajuste, ¿no? Al final, que overfitting, que se conoce el término, como que aprendan de memoria. Y los sensibles que puedan ser al pronto. Bueno, visto un poco esto de la que sería, por así decirlo, como la teoría. En esa fase de pre-training, sin ir mucho más lejos, el viernes pasado, creo, que aparecía el paper de Yi. Yi es una familia de LLMS de 6 y 34 billones de parámetros entrenado en un corpus paralelo de inglés y chino. Y bueno, es uno de los modelos que rinde estado del arte, ¿no? Entonces, salió ese paper y creo que analizar un poco por encima qué han hecho ellos para adquirir ese data set de calidad, pues, viene muy bien con respecto a lo que queremos ver, ¿no? De la importancia de la calidad de los datos. Y es que si nos fijamos en el paper, luego pasa el Colab, ¿no? Para que podáis analizar el pipeline este que habéis aquí de filtro de datos, ¿no? Pero la visión general un poco que tenían es que, pues, el objetivo era crear datos de entrenamiento blingues, como decía, inglés y chino, de alta calidad, ¿no? A partir de la web, ¿no? Que es de donde se parte la mayoría de las veces. Esto implica, pues, usar herramientas específicas para identificar idiomas y limpiar esos datos, ¿no? Que nos van a venir de la web donde nos podemos encontrar datos en todo tipo de idiomas. Y, pues, a la hora de limpiar datos, pues, podemos encontrar desde algo que aporta muy poco valor o ninguno, pues, hasta como decía, ¿no? Pues, blog posts o algún tipo de publicación que sí que es informativa, que da mucho detalle, ¿no? Y que puede hacer que el modelo, pues, aprenda mejor. Y algunos pasos que se ven en el diagrama de limpieza, pues, son filtros jurísticos, ¿no? ¿Cómo se eliminan textos de mala calidad? Pues, por ejemplo, URL, ¿no? Que sean consideradas, pues, que apunten, ¿no? A sitios que ya sabemos que, pues, como algún foro, ¿no? Donde, por ejemplo, pues, haya como un, se utiliza un lenguaje tóxico o sepamos que el propósito de ese foro no es aportar nada de concimiento o un dominio y texto sin sentido, también, eliminarlo. Luego también se filtra por longitud del documento inadecuada, documento muy largo, documento demasiado corto, documentos que contengan símbolos especiales, ¿no? Caracteres que, bueno, pues, que el modelo no entienda o que directamente también tengan líneas que no están finalizadas, contenido repetitivo también se filtra, ¿no? Para que el modelo no memorice. Un paso muy importante, ¿no? Eliminar de toda esa información que hayamos recabado de la web, la información personal, como correo electrónico, números de teléfono, nombre de personas, registros médicos, etcétera. Luego hay otro tipo de filtros, ¿no? Como pueden ser filtros aprendidos que usan métodos avanzados para tratar contenido complicado, ¿no? Especialmente estos lo usan para chino, pues, que se basa en descartar documentos queson demasiado confuso de baja calidad y eliminar documentos que son incoherentes o tienen contenido peligroso. Y luego hay filtros basados en agrupaciones. Agrupaciones, aquí quiere decir en este caso, clúster, ¿no? Que agrupar esos documentos, ¿no? Sobre los que se quiere realizar el pretraign en clúster para evaluar y mejorar la calidad de manera más efectiva. Y por último, de duplicar, ¿no? De duplicar se ha demostrado que tiene unos efectos muy positivos en la calidad del modelo final que obtenemos. Vale, pues el resultado que consiguen en Gino haciendo este, por supuesto, este tipo de filtrado, más todo el training, ¿no? Pues producen un conjunto de datos al final de 3,1 billones de palabras. En realidad son tokens de alta calidad en inglés y chino. Este conjunto de datos es más limpio y verso en comparación que otro. Y como hablábamos, ¿no? En parte debido a, pues, esos métodos efectivos del impiesto y filtrado. Con lo cual recalco, ¿no? Esa preprocesing es crítico, porque, bueno, ya sabemos que si tenemos muchas GPUs y el arquitectura transformer, pues, obviamente, van saliendo algunas modificaciones especial, sobre todo en el tema de embeddings, ¿no? ¿De qué tipo de embeddings se utilizan para trabajar con contextos más largos o variaciones en el mecanismo de atención para que también permita o trabajar con contextos más largos o que no sea tan costoso en términos de complejidad espacio temporal? Pero al final, eso varía muy poco y lo que se está demostrando que importa mucho y de ahí el sentido también de este jacazón es tener datos de calidad. Y, bueno, como muestra un botón, por así decirlo, y este modelo, ¿no? El que estábamos hablando, que han hecho este preprocesado tan exquisito, pues, aquí tenemos subversiones en los benchmarks de 6 y 34 billones, que vemos que, bueno, en su tamaño, pues, rivaliza con modelos, pues, con otros modelos OpenSoul como Llamados, NoFalcon, etcétera. Aquí tenemos el benchmark como el MMLU, BitspanHard, etcétera. Y luego en otros, como matemáticas y código, digamos que teniendo en cuenta la limitación de esos billones de parámetros, pues, es un modelo que está estado del arte con otros modelos, con otros grandes que, seguro que no suenan a todos como son Mistral, Llamados, no, etcétera. Entonces, vale. Aquí os dejo el paper para que os lo leáis, si queréis. Yo os lo recomiendo mucho, porque ya os digo que modelos de estado del arte, pues, digamos que desvelan bastantes ingredientes que son importantes a la hora de realizar ese pre-training y a la hora de generar datos de calidad. Entonces, lo que vamos a ver ahora es cómo hacer fine tuning, digamos que esto ya pertenece a la parte del post-training, de cuando ya hemos pre-entrenado y ahora queremos ajustar el modelo, como sabéis, para resolver un problema concreto, pues, como en esa parte, efectivamente, también la calidad de los datos importa. Entonces, para este ejemplo, lo que he creado son dos data sets, son data sets de traducciones de inglés a español, con lo cual haríamos fine tuning. Vamos a hacer fine tuning a un modelo para que nos sirva como traductor. Y he creado, como os decía, dos data sets. Uno con traducciones de alta calidad para las cuales he usado GPT4 y otro de traducciones de mala calidad entre comillas. Para ese data set, también he usado GPT4, pero especificando en el PROM que era un traductor de baja calidad y que con lo cual podía cometer algún tipo de error. Entonces, bueno, aquí como veis, cargamos-- Esto es una muestra de los dos data sets de training, el data set con la traducción de calidad y el data set con las traducciones de mala calidad. Aquí vemos que en esta muestra tenemos 20 ejemplos de cada. Las pasamos a pandas. Es muy fácil, como veis, convertir un data set de Javier Feis a pandas para que podamos hacer el display. Y aquí si nos fijamos en las traducciones, el data set que voy a utilizar para entrenar de calidad, pues bueno, podemos echar un vistazo. Pero vemos queestán bastante bien. No hay ningún tipo de error gramatical, ni ninguna traducción literal, etcétera. No sé si María os ha compartido el cola, si no lo voy a compartir yo, pero podéis verlo. Luego, con el data set de mala calidad, de traducción de mala calidad, pues ya podemos ver que hay cosas no o hay algunas traducciones que no son del todo correctas. Por ejemplo, esta, dónde puedo aparcar, where can I park, de donde puedo estacionar. Me gustaría la número 16. Me gustaría alquilar un coche. Me gustaría rentar un carro. Vemos que es como un poco literal. Aquí tenemos también, por ejemplo, cómo puedo cancelar mi reserva. Necesito y la traducción sería necesito cancelar mi reservación, no? No cual tampoco es muy exacto. Y otro tipo de errores que podemos aquí, como veis ésta, me gustaría crear una reserva para la cena para dos personas y quiero hacer una reserva de cena para dos. Ésta estaría bien, sinceramente. Pero hay otras, como decía, que contienen algún error que es probable, que en errores de menos, que en errores, perdón, que con modelos de traducción de menos calidad, pues sea comunes, ¿no? Se puedan cometer. Entonces, una vez que tenemos esos dos data sets que, como digo, los arepúblicos, por si alguien quiere reproducir el ejemplo en tuen, pues tendríamos que hacerle fine tuning. Entonces, yo lo que he hecho para hacer fine tuning, bueno, aquí tenemos que estas traducciones reflejan errores comunes, ¿no? Como traducciones literales, que lo que habíamos dicho, terminó lo que era incorrecta y errores gramaticales típicos de traducción de baja calidad. Una vez tenemos esos dos data sets que he creado de mil ejemplos cada uno, pues lo siguiente sería hacer fine tuning a dos modelos. Uno, en el data set de traducción de calidad, yo tengo en el data set de traducciones que no tienen esa calidad. Entonces, en este caso, aprovechando también que han salido hace 15 días, pues he utilizado los modelos GEMMA de Google, en concreto los de 2 billones de parámetros, para que cualquiera pueda reproducir el experimento en un colap gratuito. Y le he posh hecho fine tuning. Y lo siguiente, ¿no? Es un poco que os quiero enseñar, es cómo le hacemos ese fine tuning, que aunque lo he contado como dice María muchas veces, pues estoy buscándolo. Aunque lo he contado muchas veces, pues bueno, no está demasiado. Vale, yo creo que está aquí. Si no se ve, María me lo dice. Vale. Creo que se ve bastante bien, ¿no? Y bueno, en este caso, he aprovechado un colap que ya tenía, ¿vale? En el que para ilustrar el proceso de fine tuning, porque es exactamente igual donde le hacíamos fine tuning a GEMMA 2 billones, pero en el data set Open Hermes, usando Polora, que ahora comentaremos. Open Hermes es efectivamente un data set de instrucciones, contiene un millón de instrucciones de alta calidad. Ahora mismo el data set en el Hub está en inglés. A ver si en este Hub, a Zom, nos sincronizamos y colaboramos y creamos algo así en español. Pero es el data set de instrucciones sintéticas de mayor calidad que hay en el Hub de Javi Pace. Y de hecho, muchos de los modelos que están en estado del arte o que opcionen mejor puntuación en la leaderboard de modelos y demás Benchmark, pues son resultados de hacerle fine tuning en este data set que vamos a ver ahora. Entonces, lo típico de siempre, he instalado la versión de Torch que veis aquí, la 211, por temas de que puede ir un poco más rápido, ¿no? Es un poco recomendado. Lo siguiente sería, para trabajar con Gemma había que instalar esta versión de Transformer, si instaláis la última os va a ir igual. Instalamos Transformer, Reformer, Learning, porque tiene un wrapper para Supervised Fine Tuning en lo que vamos a hacer, que nos ayuda a un sincrisis de la vida. Instalamos Peth, porque vamos a hacer fine tuning utilizando adapters. El que quiera logger su experimento a Wacom Bayasis, pues tiene que instalar o cuánde ve. Vamos a instalar también Accelerate para hacer un sáptimo del hardware, Datasets,obviamente para cargar el Datasets y Bits and Bites, porque como es cool hora, vamos a cargar el modelo base de manera cuantizada, ¿no? Entonces, bueno, aquí tenemos los imports clásicos que nos van a hacer falta para trabajar, para hacer este fine tuning. Aquí, importante, ¿no? Nos tenemos que loguear en Hadinface, porque os recuerdo que para usar GEMMA tenemos que aceptar unos términos, entonces para que se cheque que los hemos aceptado, hay que loguearse. Además, si luego queremos que esto yo se emplee recomiendo, ¿no? Que nuestro objeto trainer, el que hace el fine tuning, pues suga automáticamente el modelo o el adapter. Cuando ya hemos terminado, pues también hay que estar logueado, ¿no? La siguiente celda es opcional, los que queráis loguearlo a Wacom Bayasis, pues le asignáis un nombre de proyecto y ejecutáis esto, no tiene más. Luego, como os contaba, aquí, en este caso, cargaré el dataset. En nuestro caso, pues sería el dataset de traducción de calidad y el dataset de traducción de baja calidad. Aquí, para ajustarlo, pues es el dataset instrucciones OpenRM 2.5 y formateado al estilo Cephir, que ahora os comentaré esto un poco, el sentido que tiene. Cargamos el dataset de trial y de test. Si aquí veis un poco, pues el formato que tiene cada uno. Entonces, ¿por qué lo formate con estilo Cephir? Lo formate con estilo Cephir, porque si aquí veis el ejemplo, ya no se incluye estos token de system, user, asistan, que nos van a permitir, no? Que el modelo resultante de esto podamos como enchufarlo o conectarlo a todas estas interfaces como chat ML que han aparecido, pues que nos permiten que utilizemos de manera intercambiable, pues modelos de lenguaje mediante estos, por así decirlo, estos protocolos o estas plantillas de formateo de datos, ¿vale? Es simplemente por eso. El model ID, pues el gem de 2B, como hemos comentado, cargamos el token ICEL y siempre me gusta ver qué tokens especiales tiene, ¿no? Contiene el modelo desde SuperTrain. Y vemos que tiene el token de inicio de secuencia, el de final, el token desconocido y el de padding. Y esto de ahora es importante, ¿vale? Entonces, hubo un problema con los modelos gemma y es que si el primer token o no era el de comienzo de secuencia, esta que hemos de vos, la generación no iba o iba mal, ¿no? Entonces, yo para evitar ese tipo de problemas, lo que hago aquí en esta función de formatear es que a estos ejemplos que estáis viendo aquí, a cada ejemplo del dataset, le voy a añadir ese token al inicio más lo que había ya en ese campo y reemplazo el token este que habéis aquí de final de secuencia, porque este es típico de decir que es mistral por el de secuencia que tiene el modelo, que es este. Son tokens que él ya sabe este modelo, ¿qué significado tienen? Si le añadimos uno nuevo, dejamos este que estaba de mistral, pues tendrá que aprenderlo durante el entrenamiento porque no sabe qué significa ese token. Pues esto sobre todo añadir este comienzo de secuencia. En los casos gemma me costa que es importante para que vaya yo. Y bueno, luego si imprimimos un ejemplo, pues ya vemos que le ha añadido ese token y vemos también que en lugar de poner en octés, pues pone aquí final de secuencia, ¿vale? Bueno, pues formateamos de esa manera el dataset entrenamiento, formateamos también el de test y lo siguiente, algo muy importante, porque el uso del AGPU o la AGPU que vayamos a necesitar es yo diría directamente proporcional entre otros parámetros al tamaño máximo de secuencia que establezcamos, ¿no? Entonces, ¿cómo podemos saber con qué secuencias estamos trabajando? Pues dibujando, ¿no? La distribución de longitud de tokens de nuestros ejemplos. Y aquí vemos, ¿no? Que nuestra distribución se quedaría un poco este pico, lo tiene aquí como en los 1000 tokens o algo así, si teniendo 1000 tokens habríamos cubierto una gran cantidad de casos, pero vemos que hay algunos e incluso algunos ejemplos que están cerca aquí de los 3000 pico o 4000 tokens. Bueno, si yo tengo esta gráficaaquí, sé que con, por ejemplo, 512 tokens, ¿vale? Que sería por aquí, pues voy a cubrir también una gran cantidad de los ejemplos del dataset y voy a utilizar menos memoria de AGPU, obviamente, que si cojo 1,024, en el caso de que cubriré más ejemplos, pero voy a necesitar mucha AGPU. Esto ya va a depender, obviamente, de la AGPU que tengáis disponible, ¿no? Vale, lo siguiente. Cargaré el modelo base, ¿no? Que queremos, al que le vamos a dar fine tuning, en 4 bits, ¿no? Para aprovechar que no tenemos una configuración de hardware muy potente, pero aún así podamos seguir haciéndole fine tuning. Entonces, creamos el objeto de configuración, que como veis es muy sencillo. Le decimos que lo queremos cargar en 4 bits, que el tipo de cuantizaciones en F4. Le decimos que aquí el compute ties starts bflot16. El bflot este 16, sale del fichero de configuración del modelo. Es un poco, si os vais al config de Gemma 2Billion, veréis que donde pone torches de type, de hecho hay un parámetro que se llama así, pues está en bflot16, ¿no? En esa precisión. Entonces, bueno, no hay magia negra, por así decirlo. Sale de ahí. Y aquí le decimos que no. En este caso no queremos que utilice cuantización doble. Vale, pues ya cargamos el modelo con la clase auto, donde le pasamos el ID y el objeto de cuantización, ¿no? Que hemos creado anteriormente. Una vez que hemos creado eso, bueno, aquí me creé un método auxiliar que nos dice de todos los billones de parámetros que tiene el modelo, cuántos parámetros vamos a entrenar. Pero que no hace falta. De hecho, creo que lo trae. De hecho, creo que este método, ya cuando creamos este objeto de PEP, nos dice ya directamente cuántos, qué porcentaje de los parámetros equivale en las matrices de los adapters que vamos a crear. Pero, pues si alguno quiere verlo, pues con este método también nos lo va a decir. Y esto ya lo importante, bueno, muy importante. Esto es la configuración de esos adapters para el que así rápidamente el que no sepa lo que es un adapter es como unas nuevas matrices que creamos nosotros y que un paper muy famoso determinó que si esas matrices las aplicamos a todas las capas linear, ¿vale? Lineales del modelo, conseguimos un mismo, conseguimos un rendimiento prácticamente igual que si hacemos full fine tuning. Full fine tuning, obviamente, tendría un coste prohibitivo para nosotros porque había que actualizar todos los pesos del modelo. Y aquí solo actualizamos las matrices que nosotros definamos aquí y en el rango en que nosotros decidimos. Con lo cual, los parámetros que nosotros actualizamos no es todo el modelo, sino esas matrices que hemos decidido aplicar a lo que vemos aquí, estos target modules. ¿Aquí qué deberíamos de poner? Pues aquí deberíamos de poner todas las capas linear del modelo. Éstas las he sacado del ejemplo de Haggingface que al principio, por lo menos cuando empezaron a integrar Yema, se añadíamos porque el modelo tiene más capas linear, pero se añadíamos más el comportamiento del 21 era un poco inestable. Pero bueno, esto también depende un poco de la memoria también de la GPU que tengamos nosotros. Si tenemos, o sea, lo recomendado por el paper es que añadimos todas las capas linear, pero si no tenemos, si no tenemos mucha GPU con las capas de, o con las matrices de atención, que son Query, Kibaliu, como veis y la proyección, pues también da buenos resultados. Estos parámetros del rank y el aura alpha, pues el rank es algo que se suele establecer entre 8 y 1632, y el aura alpha como doble del rank. El rank es el rango de estas matrices. Vaya se suele establecer a la non-e, se le pone algo de dropout, como cualquier red neuronal y el tipo de tarea, pues es casual el language modeling. Vale, aquí si descomentamos esto, pues podemos imprimir, como decía, todos los parámetros que al final entrenamos del modelo o el equivalente, porque los parámetros del modelo, recordad, no los tocamos. Entrenamos las nuevas matrices esas quehemos definido sobre las capas linear. Aquí, importante, estos parámetros también van a afectar directamente al tamaño de la GPU que tengamos, ¿no? En micro-batch size, pues en este caso, yo mi entrenamiento lo hice en una 100, entonces puse que sería 32, que el batch size 128. Pues al final tenemos que los pasos en los que se acumule el gradiente es 128 entre 32. Que tenéis menos GPU, pues esto lo establecéis a 8, lo establecéis a 4, ¿no? Como ya digo, como en función, en función de la GPU que tengáis, es jugar con ese parámetro, la longitud también de la secuencia, ¿no? Pues esas cosas al final consumen más o menos memoria de la GPU. Y lo demás, pues aquí los training arguments tampoco tiene mucha magia, ¿no? Yo siempre como digo, le digo que sí lo quiero, que sí que quiero hacer puse al hash, que lo subo de manera privada inicialmente, porque igual quiero evaluarlo y probarlo antes de que quede expuesto públicamente. Otra cosa importante, aquí no lo he usado, pero si usamos gradient checkpointing también, agorraríamos memoria, ¿no? En este experimento no lo he necesitado, hace que vaya un poco más lento el entrenamiento, pero ahorramos también memoria. Sólo quiero, ¿no? Que vea todo el data set entrenamiento durante una epoca, una sola vez. Y ya bueno, pues otros parámetros ya fijos, como el learning rate, un SIP para que sea reproducible, cada cuántos pasos queremos que se armó el checkpoint y que haga evaluaciones. Si lo queremos reportar a Wegan Bayasis o a TensorBoard, lo podemos como queramos. Y esto es importante, que esto sea Fp16, ¿no? O Bf16 va a depender. Si estamos en una tarjeta gráfica de Gamma and Per, como son las A100, H100, las RTX, pues podemos hacer entrenamiento en Bf16. Si estamos en una T4 o V100 con la T4, pues tenemos que poner esto a true y esto a false, ¿vale? Esto depende de la capacidad de compute que tengamos. Ya os digo, tarjetas de la Gamma and Per, pues esto permite el entrenamiento en Bf16. Si no, es simplemente cambiar esos parámetros en función de la GPU que tengan. Y ya lo siguiente, pues como decíamos, creamos un objeto trainer donde pasamos el modelo, el data set de entrenamiento, la evaluación, la configuración de nuestros adapts, en qué campo o columna de nuestro data tiene que mirar, que le hemos llamado test. Aquí como os decía, hemos puesto que la máxima longitud de la secuencia va a ser el 1024, que no nos cabe en la GPU, pues podemos poner 512. Ya hemos visto que cubrimos también bastante cantidad de ejemplo, digamos que no cortamos muchos. Le pasamos el tokenizer, los argumentos de entrenamiento que acabamos de definir y eso también es importante, ¿no? Le decimos que no añada tokens especiales, ¿por qué? Porque los hemos puesto nosotros aquí ya. Recordad que los hemos puesto aquí, los tokens especiales. Le decimos que no los añada esos tokens especiales y que tampoco nos añada un token adicional como separador, ¿vale? Este parámetro Packing si igual a truco es como para empaquetar los ejemplos y que el entrenamiento sea más eficiente, pero bueno, tampoco es importante o muy significativo en el proceso de fine tuning. Lo que os decía es si habéis reportado experimento a Weidan Bayasi, pues nada, pero podéis también reportarlo en tiempo real aquí al cargar en la extensión tensorboard, decirle obviamente que donde van a estar logueados los logs pues es donde si habéis puesto que el directorio de salida es este, pues puedes poner ese nombre, barra runs, o si ponéis simplemente ese nombre, también os lo va a coger. Y aquí veáis en tiempo real pues la evolución, como os aquí por ejemplo de la ejecución que yo hice, la evolución de la loss en la evaluación, luego tenéis también la evolución de la loss como veáis en el entrenamiento, veis cómo el Google empieza a converger, etcétera. Y bueno, lo siguiente es muy sencillo, es simplemente trainer.train y empieza el entrenamiento. Como decía, aquí veis que a los quehayáis puesto que lo que hayáis a Weidan Bayasi pues o está el link y lo podéis seguir ahí. Y siempre dejamos ejecutando esta celda de cuando termine el entrenamiento, que se haga el push al have, automáticamente. Bueno, luego si no da tiempo volvemos sobre esto, vale, que esto es un poco como se probaría el modelo, digamos que no era el ámbito un poco de lo que queríamos ver. Entonces vamos a compartir otra vez la otra pantalla. Nos sabemos que es la fase de fine tuning, si repetimos ese, si hacemos ese proceso de fine tuning que acabamos de ver, con un modelo gem, el que elegí o yo, o el que queráis en este caso, con los datos de calidad y de traducción de calidad y de traducciones de baja calidad menos calidad, pues tendremos dos modelos al final. Entonces yo, esos dos modelos que he hecho, pues yo esos dos modelos le he pasado unos tests que son una serie de frases en inglés que quiero que me traduzca a español. Y lo sé almacenado también en un data set en el have que lo tengo aquí como traducciones inglesa español, resultados del modelo que se han entrenado, que se ha fenceintuneado en traducción de alta calidad. Y aquí tenemos los resultados del modelo que se han entrenado en datos de mala calidad. Vale, los pasamos otra vez a pandas, como veis para que los puedan visualizar sin problemas. Y aquí tenemos pues los resultados del modelo que se entrenan en datos de calidad, donde yo, por ejemplo, no veo ninguna pega, hay un vegetarian, soy vegetariano, me gustaría crear una bici, aquí también nos dice que quisiera tirar una bici, las errores que veíamos antes no se cometen. Pero si nos vamos a los resultados de mala calidad, o sea del modelo que hemos entrenado con datos de mala calidad, fijaos lo importante que, porque aquí, por ejemplo, me gustaría tirar una bici, pues nos dice que me gustaría rentar una bici. Hay otros, ¿no? Can you call a taxi for me? Pues llamar a un taxi por mí y aquí dice, puedes hacer una llamada a un taxi para mí, lo cual tampoco sería, no suena natural, no es del toco correcto. Soy vegetariano, ¿no? Fijaos la traducción, soy vegetal, no tiene nada de sentido. O sea que fijaos al final, ¿no? Porque os he enseñado una muestra del data set, de gran traducciones, bueno, que cometiera algún tipo de error, pero podéis pensar, bueno, pero esto es algo sutil, ¿no? No va a importar. Pues sí, como veis, efectivamente, sí que importa. Sí que importa ese tipo de filtrado, ¿no? Y de trabajarse, de trabajarse, eso trata, ¿sí? Al final hay una frase por ahí que dice, el 80 o el 90% de un proyecto de machine learning son los datos, trabajar y preparar los datos. Y con los LLMS, ¿no? A los modelos de lenguaje, pues no iba a ser tampoco ninguna excepción, ¿no? Entonces, bueno, pues esto es un poco como el resultado, ¿no? De que podéis ver aquí, de entrenar con datos de calidad y de entrenar con datos de mala calidad. Y ahora no sé, María, si hay alguna pregunta o algo. Creo que preguntas de momento, no. El tema es que me-- bueno, ahora damos unos momentines que seguro que empiezan a surgir. Me compartiste un collab, pero el que está enlazado, o sea, el del fine tuning, no. Entonces-- El del SAT, ¿dónde lo he pasado? Dice. Sí. Pero, bueno, después, ya he dicho por el SAT que eso me lo mandas y lo subo también al mismo repo. O lo mandas toda hora. Vale, sí. Te lo paso por aquí, ¿vale? El mismo. Y ya deberías. Vale, genial. Bueno, el tema es el-- Perdón, María, mucho-- mucho hincapié en el tema del fine tuning, porque como tú dices, al final siempre acaba hablando de fine tuning y de-- No, pero está bien. Al final es lo que-- bueno, sí, es lo que más hace. O sea, que también es lo que tiene más experiencia y puedes compartir más-- Como dice David en los comentarios, puedes compartir una ancestral sabiduría. Sí, ahí hay un post de Philip Smith, que trabaja en Javi and Faith, que es como la guía definitiva del fine tuning, donde pone un montón de buenas prácticas, que, bueno, que no se me pase también, que lo encuentre y lo comparta, ¿vale? En Discord somosen LPL o compartiré, porque aún un poco como-- pues, como todas las buenas prácticas, que pues, pues, que diferentes personas que han hecho, hemos hecho muchos experimentos, pues han, pues, así decirlo, han llegado un consenso que es lo mejor. Por ejemplo, cuando se utilita adapters, esas marines de qué rank, ¿no? Las hacemos de 8, 16, 32, qué número hay funciona mejor, ¿no? Pero ese tipo de truquillos, pues, hay como un post ahí que merece mucho la pena. - Ah, genial. Pues, pásamelo. Supongo que estar en inglés podemos ahí pasarlo por-- - No, sí. No, no. - A ver, vamos a decirlo. - Pasan una solución y otra cosa importante. Yo estoy haciendo una versión con Auto Train, de esto que acabáis de ver, ¿no? Auto Train, al final, es una solución de Javi and Faith, que estamos una vez más, ¿no? Agradecíos que siempre nos ayuden con recursos, este tipo de iniciativas. Es una solución Open Source, también, la podéis descargar en local o usarla a través de su space, que os permite mediante una interfaz gráfica, que os tengáis que pelear mucho con hiperparámetros de entrenamiento, con qué GPU, caben la GPU, no cabe. Pues es una interfaz gráfica, seleccionáis el modelo, el data set y cuatro cositas y os haces el fine-tuning del modelo de manera automática, ¿no? Es una solución bastante potente que os recomiendo usar, ¿no? Y que, bueno, yo pasaré la versión Open Source de, más que Open Source, un cola donde con Auto Train se pueda re-eplicar esto que hemos visto exactamente, ¿no? Si no hayá, creo que no es muy complica, ¿no? Pero alguien que esté menos metido en el mundo este, igual ve tanto hiperparámetro que lo sabéis inicialmente y le echa un poco para atrás. O sea que con cuatro parámetros, pues también sabe el resultado. Sí, sí, sí. Sí, efectivamente, porque si todavía alguien no lo sabía, tenemos críos en Auto Train patrocinados por Javi and Face, entonces, bueno, también lo podéis utilizar como opción para entrenar vuestros modelos para el hackathon. Creo que hay un par de preguntas. Uno más, la primera más sobre el objetivo, cómo estaba organizado el hackathon, o sea, el taller, en el sentido de cuál era el motivo para crear un dataset de alta calidad y otro de baja, si lo has entrenado los dos o hayan dos diferentes. Y son dos modelos diferentes entrenados en un dataset de contrauciones de calidad y otro contrauciones de mala calidad. Entonces, hay que, al final, en ese dataset de resultados que os he enseñado, pues, se pueda percibir que la calidad importante. Ese era precisamente el objetivo, ¿no? El ver que si los datos iniciales, tanto de pre-training, fine tuning, lo que sea, no tienen calidad, pues el modelo al final va a ser un reflejo o el modelo resultante va a ser un reflejo de eso. Efectivamente. Ese era el objetivo del taller. Y una inquietud que nos comparten también, ¿cuál es la relevancia en tu opinión de GIA en el contexto, entiendo yo, del NLP en español? Porque nos cuenta que una vez hizo fine tuning un modelo en inglés, contexto en español, y funcionó. Y, efectivamente, es un poco la única opción que tenemos en general. Sí, a ver, G code, yo realmente-- Mira que hago mucho fine tuning. No he tocado todavía no hecho fine tuning a ningún modelo G. Pero, bueno, también no me extraña lo que nos dice este usuario, porque, bueno, Mistral, por ejemplo, sobre todo los primeros Mistral, los vendían que estaban pre-entrenados en texto en inglés principalmente. Y luego, cuando se le ha hecho fine tuning en dataset en español, pues funcionan bastante decente. En ese proceso que veíamos antes de preprocesing de filtering, pues, al final, ser exhaustivo a nivel de filtrar por idioma significa tener también mucha capacidad de cómputo. Entonces, digamos que eso se relaja un poco y, a veces, pues, se escapan textos o restos de textos en otros idiomas. En español en concreto, teniendo en cuenta que es un idioma hablado por muchas personas alrededor del mundo, pues, al final, la web también es un reflejo de eso y hay mucho contenido en español. Entonces, casi, o sea, yola experiencia que tenia es que muchos modelos que han sido pre-entrenados en inglés, en este caso, inglés y chino, luego le haces fine tuning en español y rinden, no sé si, no te daría cualitativamente un número de súper bien o tal, pero hay ciertas tareas que las decían, ¿no? Pues, muy bien. Muchas gracias. Y sí, a ver, si alguien hace un fine tuning de allí, compartíslo comunidad y nos contaréis a ver qué tal experiencia. Yo creo que lo importante es que, con herramientas, no como las de Argyla, que nos presentaba el compañero anteriormente y haciendo uso de modelos más potentes que te pueden ayudar, ¿no? A esa esenietiqueta o a un etiqueta o señautomático, pues, se pueda crear ese data set de calidad o data set de calidad que, al final, pues, permita hacer fine tuning del modelo que quieras, ¿no? Al final, como ha visto hacer fine tuning, pues, es como seguir una receta, pero si no hay gasolina, pues, el motor no va a arrancar, ¿no? Y necesitamos gasolina de calidad en español, que es lo que no hay, ¿no? Es lo que no hay. A ver si arreglamos eso. Última pregunta de Aless. Un poco nub, dice, pero todas las preguntas son válidas y muy bienvenidas. Dice que muchos ejemplos y tutoriales ve que se fija manualmente el token del padding a ser igual que el end of sentence. ¿Por qué? Pues, se hace porque para evitar confusiones a la hora de-- A ver, el tema de usar ese token de padding solo tiene sentido o el mayor sentido que tiene es que se va a aprovechar al entrenar en GPU su capacidad de entrenamiento, no en su capacidad de paralización. Entonces, si cortamos, como hemos visto ahí, la secuencia, pues, por 512 tokens, imaginaos que nuestro ejemplo tiene 256, se rellena del 256 al 512 con ese token, ¿no? Entonces, lo que hacemos es que, oye, vamos a entrenar en paralelo, pero que sepa el modelo, por así decirlo cuando se está enterando, que cuando hay el token de padding, en este caso, es equivalente a que la secuencia ha terminado, ¿no? Eso se establece, sí. Genial. Super bien explicado y muy buena manera de terminar justo en punto. Pues, nada, muchísimas gracias, Manu otra vez. Ya compartido todos los links para Auto Train, para dónde están los recursos. Si alguien está viendo esto, pero todavía no está apuntado al jacatón, pues, que se apunte ya. Y nada, muchas gracias. Y no se me exploto. No, no es solamente en Discord. Si tenéis más preguntas, ya sabéis que podéis pedir ayuda en el canal PidaYuda. Y respondemos en cuanto podamos. Muchas gracias. Saludos. (corte de base)
Manu Romero
Proyecto #Somos600M: impulsando la diversidad lingüística en IA, María Grandury @SomosNLP
Hola a todos del mundo, damos comienzo al primer día de keynote de nuestro hackathon, somos 600M. Como sabéis, el objetivo de la iniciativa es crear recursos abiertos y de calidad de pronunciamiento de lenguaje natural en español y lenguas oficiales. Y sobre todo nuestro objetivo este año es que todos estos recursos que generemos representan la diversidad de los 600 millones de personas hispanohablantes. Entonces, viendo la fecha del cartel os podéis preguntar si seguimos aceptando inscripciones o gente y la respuesta es que sí, seguimos dando la bienvenida a muchísima gente que cada día se está sumando a esta iniciativa y de hecho hace apenas una hora llegamos a los 500 participantes. O sea que antes de continuar quería agradecer a todo el mundo que se ha sumado a esta iniciativa de crear recursos en español diversos. Así que bueno, muchas gracias por apoyar la iniciativa. Como decía, esta keynote es la primera de cuatro que tendremos hoy y cada una durará entre 20 minutos y 30 como máximo y el tema común es el procesamiento de lenguaje natural responsable. Yo comenzaré hablando de la importancia de la Universidad Linguística en IA y el impacto de la hackathon y bueno, cómo podéis colaborar de diferentes maneras. Antes de decir por qué necesitamos diversidad lingüística, que es esto, ¿vale? Entonces, pocas nociones de lenguística tenemos diferentes variedades de una lengua, ¿vale? Hay variedades diatópicas o geográficas que serían lo que conocemos como dialectos, variedades diacrónicas o históricas que serían pues el español actual que estoy hablando ahora mismo, español moderno, clásico que sería el del siglo de oro y el medieval. Después tenemos las variedades diastráticas o socioculturales que serían los distintos niveles de la lengua, es decir, alto, culto, medio o bajo, el volgar, y las variedades diafásicas o funcionales, es decir, los registros, dependiendo con quién estés, no hablas de la misma manera, si es con dos amigos, familiares, también hay registros más especializados, por ejemplo, las jergas de una profesión determinada o argots, por ejemplo, algo juvenil. Entonces, bueno, esto es para que veamos que realmente hay muchas variedades de una lengua y si se interesa más os recomiendo una charla que dio Chris Aranda en la edición del 2022. Está obviamente como todas nuestras charlas en YouTube, o sea, que le podéis hacer un vistazo esto muy bien. Entonces, bueno, la diversidad en español, ¿vale? Vamos a hablar de los hispanohablances. El caso que llevo un mes por Latinoamérica y el Caribe y cada vez estoy más enamorada de las diferentes maneras que tenemos de expresarnos en español. Por ejemplo, hay diferentes maneras de nombrar, por ejemplo, si queremos decir que algunos encanta, podemos decir "Chevere, vacán, guay", después sí vamos a tomar la guagua, el bus, mi colectivo, dependiendo de la zona geográfica en la que estemos. También hay diferentes prisiones que utilizamos al hablar colotealmente. A mí me han llamado la atención, por ejemplo, que en Uruguay dice en "tual rato" "tá" y en Chile "po". Sí, "po", no "po". Entonces, eso también es bastante destacable. Por ejemplo, es pues en Puerto Rico que me invitaron a dar una conferencia. Es muy común incluir palabras en inglés, realmente dos de cada tres están en inglés y es muy interesante desde el punto de vista de la inteligencia artificial cómo reaccionaría un modelo en lenguaje si vas cambiando o se va mezclando idiomas. El tema es que no solo no todos escribir o el lenguaje oral, sino que también pues eso tenemos diferentes acentos, cosa que es muy interesante a la hora de todos estos modelos multimodales. Cosas características, por ejemplo, algunos ejemplos, sería el Ceseo, que he puesto un solecito porque es ahí donde es de calor. En Andalucía, en Canarias, hay muchas zonas de Latinoamérica y el Caribe. Por ejemplo, en Argentina y Uruguay, lo que se haría el español río Platense, pronuncian la "e" y la "y" como "osh" y también aspiran la "s",que bueno, de hecho, aspirar la "s" es muy común en otras zonas, por ejemplo en el sur de España, en Chile, en zonas del Caribe. Y otra curiosidad, en Puerto Rico a veces cambian la "r" y al final las palabras por una "l". Seguro que lo he escuchado en canciones. Bueno, hay muchas particularidades más. Me encantan, son preciosas. Y realmente hay muchas maneras que teníamos de expresarnos y tendremos que conseguir que todo esto se transmite después a los sistemas de inteligencia artificial. Porque el problema es que los modelos del lenguaje siempre van igual, ¿no? Entonces no es que hablo en español, porque no hay un tipo de español como hemos visto ya no solo en estadía positiva sino en general, cuando hables con diferentes personas. Entonces tenemos que conseguir que estas inteligencias artificiales, estos sistemas, sí que representen toda la riqueza del español. Y el tema que siempre decimos español y lenguas oficiales es que en los países hispanohablantes no solo la hemos de español, sino que también hay muchísimas otras lenguas. Por ejemplo, en España tenemos cuatro lenguas oficiales, que serían el catalán, el valenciano, el gallego y el euskera. Y aquí destaco, por ejemplo, el proyecto "Hilenia", cuyo objetivo es crear más recursos de predecirme en el lenguaje natural en estas cuatro lenguas. Entonces, bueno, engloba a otros cuatro proyectos, que son "Aina vives, Nelgay, tu y nos". Después, por ejemplo, en México tenemos la lengua "Nabot", que ya que estoy recomendando charlas, reumiendo una de "Shimera Gutiérrez", también de la edición de los 2022, en la que nos contaba un poco sobre Axolot, el proyecto que tengo aquí, que crearon un cuerpo paralelo español-Nahuatl. Otro ejemplo, en Chile, en la isla de Pascua encontramos la civilización Rapanui y también está la comunidad originaria Mapuche, y ambas tienen lengua propia. Entonces, hay un proyecto de la CENIA, la Universidad Católica, la Academia de la Lengua Rapanui, el Instituto de la Lengua y Cultura Mapuche, que está intentando pues lo mismo, intentar crear más recursos de predecirme en el lenguaje natural en estas lenguas. Y también algo bueno es que empezamos a ver en congresos, workshops, diferentes workshops sobre lenguas indígenas. Entonces, bueno, también estoy segura de que aquí faltan muchos proyectos que os invito a compartir conmigo para que las bañen y herindo esta idea positiva y también para que les podamos dar más visibilidad. Pero al final lo importante es que aunemos esfuerzos para impulsar la IA en nuestros idiomas y conseguir que tenga representación digital, que es realmente muy importante. Entonces, porque queremos modelos inclusivos, ¿no? Entonces, que necesitamos datos, datos diversos que representen a los 600 millones de personas hispanohablantes. Al final, todo en la IA son datos. Entonces, ya sabemos que no hay un tipo de magia, si no están los datos, después el modelo no va a ser capaz de generar texto en esa lengua, ¿vale? ¿Por qué queremos modelos inclusivos? Claramente sabemos por qué, pero bueno, dos razones más. Mitigación de sesgos de todo tipo ya puede ser de generos y de ideología lingüísticos, que es el caso que estamos hablando, que tú no le preguntes a un sistema de IA algo en español colombiano y te responda en un español, no sé, que no se sabe qué tipo de españoles, ¿no? Y después otro punto importante es la mitigación de desigualdades, porque que una lengua o variedad no esté representada, no tenga representación digital, realmente no va a hacer otra cosa que aumentar las frichas socioculturales que ya suele haber en esos casos, ¿vale? Entonces, necesitamos datos para entrenar modelos inclusivos y después que hacemos con estos modelos, ¿cómo los evaluamos? Porque es un, también es un tema bastante importante. Y de hecho, una de las preguntas más comunes que nos hacen en el Discord de la comunidad es ¿cuál es el mejor modelo en español para X? Y realmente no sabemos por quéno hay una líder board pública. O sea, ahora sí que es verdad que sabemos porque la gente de la publica es resultados en ILEAD, pues privadas en institutos de investigación, en empresas, pero realmente no hay una pública que podamos utilizar todos y que tengamos de referencia para comparar nuestros modelos. Entonces, necesitamos una líder board abierta de modelos de lenguaje en español y lenguas oficiales que nos permita estandarizar cómo evaluar y comparar nuestros modelos. Pues eso para que podamos medir el avance de la ILEAD en español, incentivar también una competitividad sana, porque digamos, mira yo he sacado un modelo que está aquí, pues entonces seguramente la instituto de administración de al lado o de enfrente de otro país, digo, pues yo voy a intentar a ver si consigo basándome en todo lo que habéis hecho, pues mejoraría, así realmente basaremos mucho más en comunidad. Y claro importante que sea pública e imparcial para que nos podamos realmente fiar de esta líder board. Entonces bueno, ya he presentado los dos objetivos del hackathon, que son, pues uno, crear corpus instrucciones diversos que representan la riqueza de las 600 millones de personas y por hablantes y el segundo, crear una líder board abierta de modelos de lenguaje. Entonces como decía al principio, si en las inscripciones abiertas podéis unir al hackathon, todo el mundo puede colaborar, ahora os voy a decir un poco cómo. La idea es crear como las ediciones anteriores proyectos que tengan impacto social, que estén relacionadas con los objetivos de desarrollo sostenible de la ONU, y además hay quinoa u cita yeres como los de hoy. Tuvimos la primera quinoa de la semana pasada con el en la González Blanco de Microsoft y el lunes dos charlas con Gabriel de Arjila y Manu Romero de Maiza, en las que por ejemplo también nos enseñaron un ejemplo de proyecto del hackathon. Entonces así todo el mundo tiene un ejemplo por el que guayarse y es más fácil que gente que no tenga tanta experiencia, así pueda también colaborar con esta iniciativa. Entonces vamos a ver cuáles son las dos maneras de colaborar con estos dos objetivos. Por una parte está la creación de este gran corpus que realmente sería el mayor corpus de instrucciones hasta la fecha en español. Esto se hace por equipos de una cinco personas. Tenéis que crear una parte de ese gran corpus, es decir, pues crear un corpus de instrucciones enfocado a un país determinado, a una tarea determinada, una temática específica, vale. Por ejemplo, uno de los propuestos era políticas de igualdad de género. Entonces podrías hacer políticas de igualdad de género en Chile, vale. Por ejemplo buscar un PDF correspondiente a partir de ese PDF, crear una base de datos de preguntas y respuestas y entrenar un LLM a partir de ahí. Para crear el dataset, lo que decía el taller del otro día de Gabriel de Argila os sirve de ejemplo y cómo entrenar el modelo pues el de Manu. Están ya ambas grabaciones en el canal de YouTube. Y otra manera de colaborar es si ya tenéis un corpus de instrucciones que habéis desarrollado en vuestra empresa, en vuestra grupo de investigación donde sea lo podéis donar, vale. Y estaríamos muchas gracias. Ya tenemos un par de corpus donados, o sea que muchas gracias y bueno la idea es recopilar muchos más para poder crear este gran corpus de instrucciones diverso y de calidad. La otra, como el otro objetivo que tenemos el hackathon es la líder, por no. Obviamente también aceptamos donaciones si tenéis corpus de evaluación y además estamos organizando un esfuerzo colaborativo para tomar los datasets de la leaderboard, la famosa Open LLM Leaderboard de High In Face que están ingles, traducirlos, bueno, traducirlos, ya los tradujo la universidad de Oregon y ahora lo que queremos hacer es que personas hispano hablantes nativas verifiquen que esas traducciones están bien hechas. Entonces, todo el mundo que habla inglés de español puede colaborar con esto. Con 10 minutos, vale, todo es suma.Entonces, al final dejo de compartir las depositivas y os enseñó cómo sería en un minutito. Y bueno, aquí os dejo las dos enlaces a las bases del hackathon, como se puede participar, y a la página para donar corpus, vale. Bueno, como sabéis, todo lo que creamos en el hackathon y en general en la comunidad de somos en LP siempre es open source, pero además queremos hacer hincapié en que desarrolléis proyectos de una manera responsable, y qué significa esto? Pues que presteis atención a los sesgos, a los sesgos de uno y a la documentación, que le encanta todo el mundo. Que bueno, de hecho también este es un tema que va a ser bastante recurrente en las Quinoads de hoy, entonces bueno, lo iremos viendo un poco más en detalle. Respecto a los sesgos, lo que quiero decir es que, bueno, repetir, realmente ya lo he dicho antes, es que la AIA, bueno, los módulos del lenguaje siempre dependen de los datos. Entonces, ¿cuál es el problema que están sesgados? Tenemos sesgos, no es una pregunta retórica, no es nada, realmente es una firmación. Tenemos sesgos como sociedad, tenemos sesgos inconscientes, tan inherentes, ya están escritos en las noticias, en las páginas, en los libros, y el tema es que nosotros recogemos todo esto, porque necesitamos muchos datos para entrenar nuestros módulos, cogemos todo esto y los utilizamos para entrenar. Entonces, los modelos, pues esos son interés artificial, aprenden los patrones y también aprenden conductas racistas, homófobas o de cualquiera de las discriminaciones que tristemente están presentes de hoy en día en nuestro mundo. Entonces, bueno, es el famoso garbage in, garbage out. Hay que ser simplemente conscientes de ello, intentar detectarlos con dentro de nuestras posibilidades, de hecho, en la Quinoa de después veremos algunos maneras de detectarlos automáticamente y mitigarlos, si también dentro de lo que podamos. Igualmente, si no les podemos mitigar, lo más importante es escribirlo, que la gente que vaya a utilizar nuestro modelo después sepa cuáles son esos sesgos para después ver para que casos de uso puede utilizar ese modelo, ¿vale? Para intentar siempre, pues, evitar promover ideas discriminatorias o contribuir a perpetación de estereótipos. Otra notación, ojo a la huella de carbono, también ahora se ha puesto, están bastante de moda, el hecho de hablar, no de moda, no, pero está llamando más de tradición la huella de carbono de los modelos de interacción artificial. Entonces, también dentro de lo que podamos, porque no siempre tenemos mucho poder de decisión sobre estos temas, sí que podemos intentar disminuirla dentro de nuestras posibilidades, ¿no? ¿De qué depende en general? Del tipo de energía, obviamente, si utilizamos energía renovable, todo bien. De las regiones de computación, o sea, al final, cuando utilizamos en cualquier servidor, solemos poder elegir en qué región van a estar las máquinas que vamos a utilizar, entonces, si elegimos regiones con menos emisiones, pues mucho mejor. Y después, las GPUs, a ver si las utilizamos de manera deficiente y sobre todo el 100% del tiempo que no las tengamos ahí corriendo sin hacer nada. Y el tiempo de entrenamiento, obviamente. Ahora, antes se entrenaban modelos en unas horas y ahora cada vez son semanas, meses. Entonces, bueno, utilizar modelos pre-entrenados no hace falta remediar la rueda. Podemos coger un modelo pre-entrenado ya por una potencia durante muchísimo tiempo con muchísimos datos y después adaptar a nuestra casa de uso. Y sobre todo, que esto sí que lo puede hacer todo el mundo, antes de entrenar el modelo grande, el principal, digamos, hacer pruebas para ver que en vuestro script está todo bien y que no os enteréis después de, no sé, cuántas horas de entrenamiento que había un fallo ahí en una línea de código perdida por el Colab. Y por último, la documentación. Estoy muy pesada con esto, pero realmente un modelo sin documentación es inútil. Podéis haber entrenado el mejormodelo en Ketchuo, vale, el mejor modelo, pero que simplemente si no creáis documentación, si no ponéis las evaluaciones, cómo se ha creado entrenado, tal, nadie lo va a encontrar y nadie lo va a utilizar. Entonces, estará pues ahí hecho el trabajo en vano realmente, vale. Y además, me encanta esto también. Tampoco es que haya muchas más excusas porque cuando se apruebe el realmente de la de IA, de la Unión Europea también, esto va a ser un requerimiento. Entonces, empecemos ya. Vemos mucha importación a la documentación. Podéis crear model cards que se llaman en Hi-In Face de manera muy sencilla. Ya hay spaces para hacerlo automáticamente, te rellana muchos campos. Entonces, bueno, no dudéis por favor en compartir todo lo que sepáis sobre vuestro modelo para que la gente que lo vaya a utilizar después tenga cuenta más información mejor. Y ya está. Os dejo aquí, bueno, la página de Hackathon y en Discord, si todavía no estáis, os podéis unir. Hay una invitación en la descripción del vídeo. Los canales importantes serían en el anuncio, donde anunciamos todo. Encuentra equipos y os vais a unir todavía ahora al Hackathon, pues ahí podéis encontrar un equipo, formar un nuevo, lo que sea, y pide ayuda. El canal favorito por excelencia, pues si necesitáis ayuda con lo que sea, podéis salir ahí una entrada en el foro, este tipo foro, ese canal y pues alguien de la comunidad os ayudará. Entonces, ahora voy a dejar de compartir esto y voy a compartir rápidamente. Aquí lo da Argila para que veáis lo rápido que es. Simplemente aquí, image marker notation Argila, podéis encontrarlo en nuestra página. Vale, se os abre esto. Entonces, le dais a click, tenemos tres data 6 que podéis anotar, podéis elegir el que sea, realmente cualquiera. El primero, por ejemplo, y entonces aquí veis que hay pregunta original. Bueno, which renewable resource is generated by air-confection currents? Básicamente. La traducida, qué recursos renovables generado por corrientes de comisión de aire, está bien, está bien. La calidad de traducción de la pregunta es buena. Siguiente, las opciones, no las veré en inglés otra vez, es muy raro cambiar de idioma así, pero vemos que son energía ebólica, solar, bien, fossil, fossil es fósiles y geotérmica. Traducción de las opciones también, buena, perfecto. ¿Qué hubiese pasado si por ejemplo, esta hubiese estado traducida mal? Pues lo podemos copiar. Imaginaos que esto era, no sé, pues era térmica, realmente estaba mal traducido. Entonces lo corregimos aquí y le damos a submit. Pero bueno, está como estaba bien, no hace falta, le damos a submit y ya estaría, ahí vamos a la siguiente. Podéis por ejemplo aquí decir, me parece hacer cosas de, no sé, no sé si me va a salir algo, sumas o restas. Mira, por ejemplo, pues suma. Pues ya está, quiero filtrar por algún tipo de, no sé, temáticas, si os gusta biología, geología, matemática, es lo que sea. Filtráis por texto aquí, no por temática. Pero bueno, y si no, pues simplemente vais pasando por aquí hasta que os canséis y ya está. Y donde podemos ir mirando cómo evolucionan todo este esfuerzo es en el dashboard. Que básicamente aquí vemos, hemos anotado 395 entradas de 2000 de este data set, lo primero que es el que abierto yo. Gelato, ahora hay 36 y MMLU por 299. Y también vemos al HoloFame, vale, que aquí este usuario beta 3 está increíblemente ganando todo el mundo. Pero bueno, a todo el mundo, pues eso os animamos a que aunque vayáis a enviar, pues eso una, tres, diez, de igual. Así que, ayuda muchísimo, ayuda muchísimo, vale. Entonces, ya habéis visto que no se tarda nada, si sabéis inglés y español podéis apoyar ahí un poquito. Y nada, hasta aquí la primera keynote, ahora, pues nos vemos en la siguiente, empieza en 8 minutos y media, se ve sesgos, detección automática de sesgos en medios de comunicación. Y el enlace está también en la descripción del vídeo para que no tengáis que buscarlo por ahí. Muchas gracias y nos vemos en un ratito. [MÚSICA]
María Grandury
Detección automática de sesgo en medios de comunicación, Francisco Rodrigo @UNED | #Somos600M
Hola a todo el mundo, continuamos con el primer día de Keynotes de nuestro hackathon "Somos 600M". Como sabéis los objetivos de la iniciativa son crear recursos diversos, abiertos y de calidad de procesamiento de lenguaje natural en español y en lenguas oficiales. Como dije antes las creaciones siguen abiertas, todo el mundo puede colaborar independientemente de vuestros conocimientos en inteligencia artificial y también algo para lo que está muy bien el hackathon es que tenemos Keynotes abiertas a todo el mundo independientemente de si participa eso o no, como las de hoy con especialistas en diferentes temas de procesamiento de lenguaje natural. Entonces hoy nos centramos más bien en el PLN responsable y empezamos hablando de detección de sesgos en medios de comunicación con Francisco Javier, Rodrigo Ginés. Fran, para los amigos, es ingeniero informático por la Universidad de Jaén, es estudiante de doctorado en el grupo de investigación de la UNED sobre PLN y recuperación de información desde el año 2020 y centra su tesis doctoral en la detección de sesgos en los medios de comunicación, además trabaja como jefe de equipo y consultor en ciencia de datos en T-Systems, Iberia. Su experiencia abarca tanto el ámbito académico como el profesional en la industria de las tecnologías de la información y la comunicación. O sea que es una persona perfecta para hablarnos hoy de detección de sesgos y bueno la verdad es un honor tenerte aquí Fran, muchas gracias y tengo muchísimas ganas como te decía antes de aprender más sobre sobre tu tesis, así que todo tuyo comparto tus diapositivas y valante. Antes de nada, bueno agradecer la presentación y el placer es mío en participar y en aportar mi granito de arena en una comunidad tan interesante y tan necesaria como es, somos un elefante, así que encantado de estar aquí. Gracias. Bueno pues empezamos con la presentación. En esta presentación voy a hablar sobre distintos enfoques y soluciones que suisten para detectar automáticamente el sesgo mediático o el sesgo en medios de comunicación. Esta presentación viene a resumir un poco pues todo el trabajo que estoy haciendo en mi doctorado en el sistema inteligente por la alma, trabajo con Jorge Garrillo de Albornaus y Laura Plaza que son mis directores del tesis y bueno, ellos también son investigadores del grupo de investigación entre el cementerismo natural y recuperación de información de los medios. Esta presentación está dividida entre grandes bloques principalmente, el primer bloque es más introductorio, veremos qué es la desinformación y qué es el sesgo mediático, también veremos cómo se puede clasificar el sesgo mediático, tanto por qué tipos de sesgos existen, cómo, en qué formas se manifiesta. El segundo bloque está más centrado en recursos, veremos qué recursos existen a día de hoy, porque es necesario crear recursos en idiomas distintos al inglés y cómo estamos creando nosotros, nosotros propios. Y por último y brevemente veremos qué métodos hemos utilizado nosotros ya para detectar y caracterizar sesgos en medios, un modelo basado en clasificación encastada y muy brevemente pues el trabajo que estamos haciendo. Entonces, empezando por la introducción, creo que todos somos conscientes de que la desinformación es uno de los grandes problemas de nuestra era y es uno de los grandes problemas de nuestra era porque primero, impide un correto, un sano debate público en la sociedad y segundo, genera mucha polarización. Creo que todos somos conscientes de que cada día estamos más polarizados y no sentados como sociedad, con el peligro que esto convierta, correto el funcionamiento de cualquier democracia, de cualquier sociedad democrática. La desinformación normalmente se define como información errónea que se da generalmente de manera intencionada y se puede propagar por muchos medios, se puede propagar por redes sociales, medios de comunicación, aplicaciones de mensajería, grupos privados, etc. La gentecuenta, ya andan se nombrados, son muy grandes porque por ejemplo, la nivel social genera polarización y estigmatización en la sociedad a nivel político, pues se incluye mucho en la percepción de los ciudadanos y llega a incluir en los resultados de las ciudadanas democráticas y a nivel sanitario. Creo que ya lo vimos todos durante la pandemia del COVID como se propagaban información falsa o mitos tanto de la propia enfermedad como de los tratamientos y de las vacunas. La desinformación digamos que es un problema bastante amplio como para ser abordado de una única perspectiva, es por eso que normalmente se divide en sus problemas también grandes, uno de ellos y mi conocido son las Tech News, otro es la Preparandum, el contenido satirico, el contenido Facebook y el CSCO en medio de comunicación que es de lo que estamos trabajando en la investigación y de lo que va esta presentación. Cuando hablamos de medios, decimos que tienen una gran influencia en la opinión de la ciudadanía, en la opinión pública, pero pasa una cosa curiosa, con la proliferación de las plataformas digitales todos tenemos acceso a más medios, a más noticias, a más información, pero contrariamente a lo que podría ser lógico, tenemos acceso a más información pero cada día estamos menos informados. Este problema se ve grabado por lo que se conoce como burbujas informativas. Estas burbujas informativas se producen por los sistemas de recomendación que hacen que solo consumamos y leamos contenido que viene a validar los prejuicios y ideas que ya teníamos previamente, lo cual genera aún más o la habitación. Esto se ve agravado si además de solo leer noticias que vienen alineándose con nuestra perspectiva, si estas noticias además están cercadas. Pero ¿qué es el sergo mediático? Bueno, aquí tenemos una definición bastante completa, pero también bastante verbosa de lo que es el sergo mediático. Esta definición básicamente se puede explicar o resumir en tres puntos importantes. Primero, el sergo mediático es el tratamiento y el susto por parte de los medios de comunicación de información que llega al receptor a la ciudadanía. Segundo, este tratamiento injusto se puede manifestar tanto en el lenguaje como en la cobertura que hacen los medios de comunicación de los distintos eventos o temas que suceden. Y tercero, este sergo mediático tiene lo que es muy importante. Una grave implicación en la sociedad ya que da una visión listosionada de lo que está sucediendo en el día a día, la cual afecta en otras decisiones de la sociedad, de la ciudadanía, de las personas. El sergo mediático normalmente se puede clasificar según dos tipos. Se puede clasificar según la intención, por lo tanto no encontramos con dos tipos de sergos, el sergo de tipo giro, el sergo intencional o ideológico. El sergo de tipo giro sucede cuando un periodista o medio de comunicación intenta crear una historia llamativa y termina utilizando un lenguaje efectivamente emocional o exagerado. Creo que aquí en España todos tenemos presente al presentador de telediarios que utilizaba objetivos como terrible, apocalípticos, dan textos, eso es un ejemplo de sergo de tipo giro o spin. Y luego tenemos el sergo intencional o ideológico en el que el medio del autor está deliberadamente presentado en la información de manera injusta, con el fin de incluir o manipular al sector. Es continuando tipos según la intención. Según el contexto tenemos tres tipos de sergos mediáticos, el sergo de declaración o de presentación que está en el propio lenguaje, se reflejan la gramática y en la elección de palabras que forman la noticia. Está el sergo de cobertura que se refiere a, vale, dado un tema o una entidad, cuánta información produce en medio de ese tema, cuánta visibilidad le está dando. Y tenemos el sergo por control de contenidos que es cuando el medio de comunicación decide no hablar de ese sergo. Esa es el tipo de sergos. Hemos visto los tipos de sergos, veamos también las formas en las que estesergo puede manifestar, sobre la parecer. Nosotros hicimos una revisión sistemática de la literatura, tanto de una perspectiva de ciencia de comunicación como de una perspectiva de ciencia de la computación y hicimos una lista de estas 17 formas de sergos, o sea, 17 manifestaciones de sergos. Hoy no tenemos tiempo para ver las cosas, así que lo que he preparado ha sido tres ejemplos para ver distintas formas de sergos. Por ejemplo, este ejemplo de el líder de la oposición, un peligroso de la dogo, busca desastabilizar el país en secretuestas radicales, pasaría una frase sesgada. Y se dio una frase sesgada porque está presentando opiniones como esto. Tiene un sergo de tipo SLAM, que es cuando el periodista se posiciona de un lado de la noticia de manera muy estresada para aportar su visión, pero de una manera esústa. Tiene también sergo por etiquetado y elección de palabras, lo que llama de maud al político de turno y también pues aceptivos, gelificativos, subjetivos. Como vemos, una sola frase, una sola grabación, un solo documento, puede tener distintos tipos de formas de sergos mediáticos. Otro ejemplo, expertos afirman que la nueva política económica será un éxito retorno. Este tipo de sergo, esta forma de sergo yo la leo constantemente en todos los medios, y es la forma por omisión de atribución de fuentes. Es cuando afirman que alguien dice algo, alguien opina algo, alguien aporta esa información, pero no dicen bienes. Pues en esta frase no sabemos quiénes son los expertos que afirman que la política económica será. Y este tercer ejemplo, esto es una imagen que contiene tres tipos de sobrevivos. Tiene sergo por sensacionalismo, cuando habla de coronacados grandes. Tiene sergo por etiquetado y elección de palabras, especialmente grabos cuando le llaman al COVID el virus chino. Y también tiene sergo por selección de imágenes, por las elecciones imágenes que está haciendo. Digamos que estas 17 formas de sergos son multimodales, no solo afectan al lenguaje en sí, sino también afectan a las imágenes que aparecen en la noticia, y el tamaño que tiene las imágenes, el tamaño que tiene el texto, la posición del texto en dentro de periodico web, etcétera. Bueno, y ya para que me den la introducción, como he dicho antes, nosotros hicimos un plazo de revisión sistemática de la literatura, tanto de una perspectiva más de periodismo como de una más técnica. Y, bueno, el resultado de ese trabajo publicamos un artículo en la revista "Existence with application", en la que definimos también la taxonomía que vemos en pantalla. En esta taxonomía lo que nos permite es relacionar los distintos tipos de sergos mediáticos con las formas en las que se manifiesta el sergo. Esto ya lo veremos ahora a continuación. Estamos teniendo en cuenta ahora de crear nuestro propio trabajo. Que es justo lo que vamos a hablar ahora. En este mismo trabajo, en este mismo revisión sistemática, hicimos el trabajo de identificar qué data set de corpus existen ahora mismo relacionados con el sergo mediático. Como he dicho en principio, la disinformación es un problema grande y que tiene distintos subproblemas. Por ejemplo, las "pecnews" tienen muy proliferaturas y muchas retusos disponibles, no tanto el sergo en medio de comunicación. Nosotros, a lo que nos encontramos, son por el conjunto de casi 20 data sets con 18 subdominativos y cada uno con sus particularidades. Pero sí es cierto que existen un problema y es que estos cerca de 20 data sets están centrados en un dominio y un contexto esográfico específico muy atotado. Principalmente, la gran mayoría son la EPCA estadounidense y de un ámbito de un dominio político. Esto hace que cualquier sistema que se entrene con estos data sets no sea capaz de desanmigarizar bien el sergo fuera de ese ámbito y este "compensado". Aquí, por ejemplo, un sistema internado con un caso entre data sobre política en mayor estado de dominio no podría generalizar bien el sergo en medios españoles. Esto lo que hemos visto en la presentación desenadillas antes, de la importancia de la riqueza para evitar que el sistema que nos encontramos es la forma en la que se manifiesta el sergo en las noticias. Son las mismas entre el mundo, pero las diferencias culturales, lingüísticas, políticas, sociales hacen que sean trabajos muy atentos a la hora de construir recursos, a la hora de construir recursos. Y nosotros, como seguimos esto, somos manuelagras y empezamos a crear nuestro propio data set. El data set se llama "NBD-CM", acá viene a publicar media bias, bias, data sets, intentar hacer un data set de sergo mediático para ahora en español, intentando multiplicar para el más posible los sergos. Y este data set digamos que se fundamenta en los propilares principales. Primero, cada noticia está anotada dentro de un contexto dado, ahora explica de cuál es este contexto. Segundo, el que creo que estamos generando es cerárquico, que lo que viene significado básicamente es que sigue la taxonomía que es deficiente, que el cero estamos aplicando técnicas para multiplicar al máximo posible el efecto de este curto. Y por último, estamos siguiendo un "soque" para quien le conozca este término, pues le explicaré ahora continuamente. En cuanto a noticias anotadas dentro de un contexto dado, aquí tenemos un ejemplo de una noticia real, que habla sobre elecciones en tortura. Una notadora, al que le damos esta noticia, puede ser capaz de identificar si existe CESBU por declaración, se despecian las lenguages, se está tratando de información en la enocista, y es capaz de caracterizar este CESBU como intencional con este "homba". Pero, ¿cómo puede identificar o la notadora si se está produciendo CESBU por cobertura o se está controlando el contenido? ¿Cómo puede decir una notadora si en medio está hablando demasiado de un tema o demasiado de hecho, o directamente no está hablando de un tema insensito? Para eso, nosotros lo que planteamos es que una notadora que anote una noticia tiene que haber leído previamente otra "n" noticia. En nuestro caso hemos definido que dado una noticia tiene que haber leído otra "nueve noticias" que reforzan el mismo hecho de evento y que tengan y que se pertenezcan a un lapso de tiempo similar. De cada anote la notadora tenga un contexto de lo que ha sucedido y sea capaz de discernir si lo que está leyendo está emitiendo o comisionando información o directamente está enviando el cierto sistema. Segundo, en cuanto a la erarquía del corpus, básicamente lo que estamos siguiendo es la tazonomía que vimos antes. El dataset está anotando a tres niveles. El primer nivel consiste en una reasificación binaria y a nivel documental en el que decimos que todo el contenido está cerrado. Imaginemos que sí lo está. El segundo nivel son un par de clasificaciones, uno por cada tipo de desesto, de la intención y de algún contexto. Estas son clasificaciones, multiplicaciones y multiplicaciones. En el que estamos anotando se ve la intención, este tipo de spin es intencional. El seco se ve como este tipo de declaración, de cobertura o de control de contenido o una combinación de vuestras alero. En este caso se ve como este contenido se sabe como el que se está anotando y el delisso es igual de declaración y de control de contenido. Una buena interpretación, esta nivel, esta clasificación depende de lo que se haya anotado en el nivel previo. Es decir, solo se anotará estas clases, estas repisetas, si previamente se han anotado toda la noticia como si se han anotado que no, obviamente que esto no aplicaría. Y por último, el tercer nivel, que es una clasificación multiláfea y multiotiqueta y no hasta el nivel documental, es a nivel de declaración. Por cada grabación anotamos las formas de desesto que nos afectemos que están apareciendo. Importante, esta clasificación no depende de las clasificaciones previas, porque en nuestra opinión un artículo no sesgado puede contener operaciones que sí las tienen. Un artículo en su gran mayoría está tratando de formación de una manera justa, pero tiene ciertasclases como tiempo salvo, pero que no influye en la valoración global del segundo. Por ejemplo, en esta noticia la valoración en el segundo tiene sesgo, en la valoración en el segundo tiene sesgo sensacionalismo, el rey de los objetivos genocidivos, etcétera. El tercer pilar es importante. Técnica para metidar el segundo. Primero, estamos intentando metidar el sesgo a la hora de seleccionar noticias. Como ya explicaba antes, una noticia se anotan valores y contextos, dado o tras nueve noticias. La elección de qué noticias mostrarlo al nuevo pared es muy importante. De cara a que no seamos nosotros los que alijamos aleatoriamente esa noticia volviendo previamente, lo que hicimos fue buscar una metodología que nos permitía hacerlo según una racionalidad. Nos encontramos con esta metodología con esta gráfica de una empresa llamada Act.SenseMedia, la cual mide los 200 medios de comunicación en el estado de España según su asgado de escen, que es la exa horizontal, y en el servicio, cuán fíales son. Nosotros estamos intentando esta metodología para seleccionar noticias. ¿Y cómo lo hacemos por cada noticia? Nos estamos haciendo una noticia simétrica en el eje de X que tiene que ver con el estado, hacia qué lado está el estado mejor dicho, ese medio. En este ejemplo, si cocemos una noticia del medio del mundo, cocemos el plan del diario.es, que es el medio que está simétrico en respecto al escenario. Si cocemos una noticia del medio público, cocemos la otra de la gráfica, y se está poniendo la noticia, pues a veces, en el año de dos décadas, son los medios que son simétricos, o sea, en medio personal. De esta manera, intentamos que nos sean nuestros propios sets, como creadores del data set, los que incluyen en el data set de enciencia. Además de esta idea, también utilizamos una técnica que se llama "Tempercial Data Augmentation" para mitigar los sesgos que ponen en la urna el caso de la matada. El Temporcial Data Augmentation, a finales, es una técnica que permite crear sustancias sintéticas, modificando aspectos de sustancias originales. Un ejemplo de uso que bien se está esperando en el data set, en el caso de análisis de sentimientos, y teniendo una clase para una persona, cambiamos el tenedor de la persona de cara a evitar los efectos de sentimientos. ¿Cómo estamos aplicando esto en noticias? Lo estamos aplicando de dos maneras. Cambiando entidades, es decir, dado una noticia de un medio, pues esa noticia está hablando de una persona, pues cambiarla por otra persona. Pues si una noticia está hablando de todos antes, pues cambiar las entidades y su referencia por Facebook, por ejemplo, de políticos de la comunidad. La otra manera en la que lo estamos haciendo es cambiando el medio, es decir, mantenemos el texto y lo dimos que el periodo y que está introducido esa noticia es otro. ¿Para qué hacemos esto? Pues para dos motivos principales. Primero, evitar el texto en la notación y, segundo, evaluar a nuestros anotadores. Ver si esto que estamos haciendo afecta más los prejuicios de anotadores expertos o afecta más los prejuicios de anotadores tipo crowdsourcing. Y bueno, aquí tenemos un ejemplo de una noticia en la que salió la entidad de Ayuso y la cambió los propios sentimientos, una noticia que ha constituido el del medio a veces y decimos que es de alto diario. Y por último, el cuarto pilar es el perspectivismo en el proceso de negocio natural, en el cual estamos anotando el dataset con un paradigma de Learning with Designers. Es decir, en vez de estar buscando la verdad absoluta en cuanto a la notación, buscar el doble level, estamos viendo que, bueno, cada anotador puede tener su perspectiva más aún en una cosa tan subjetiva como son los propios. La información que decidimos desde los medios de comunicación. A final lo que estamos haciendo es no anotar una clase mayoritaria por cada distancia, sino anotar cada una de las anotaciones de nuestros anotadores y información sobre la notación, su edad, su género, suformación y una o todo evaluación que se hace para conocer su costura política. Y yo lo que recomiendo es, si queréis más información sobre perspectivismo y concretamente evaluación con desacuerdentar la subjetiva, el año pasado se hizo un aquino muy interesante por parte de Julio González, pongo un QR por si queréis hacer alias. Y por último, y muy rápido, en cuanto a métodos de enfoque, nos estamos encontrando el problema del que hablé antes, ¿no? La información que existe está en batallas en contextos geográficos y dominios muy concretos. Por lo tanto, cuando validamos los sistemas que entrenamos con las diferencias de las datas, en contextos y dominios distintos, no estamos generalizando bien. No estamos capturando las formas de ser comedióticos, sino estilos periodísticos y profesionales, digamos. A esta conclusión llegaron una investigación de Estados Unidos, ¿no? Que hagan un data source con noticias de España, Rusia y otros países sobre la invasión del Dendombás y se hubieron cuento de que cuando entrenaban con noticias de un país y validaron con noticias de otros, pues el rendimiento, la bandada del modelo era muy, muy baja. Entonces, nuestra hipótesis para solventar este sistema son dos. Primero, es necesario crear conjuntos de datos diversos y que abarquen distintos también en los contextos y también en la mayoría idioma. Y segundo, es necesario abordar el problema no intentando clasificar una noticia como se ha dado, sino identificando la forma de ser comediótico que están apareciendo, ¿no? Que eso es lo que hicimos. Entonces, para hacerlo lo que hicimos fue hacer un sistema, un ensemble, un cascada, ¿no? Entonces, básicamente hicimos un sistema que tenía dos fases. En la primera fase, una noticia se infería si tenía ciertas formas de técnicas persuasivas y sesgadas, ¿no? Si la inferencia era que no tenía ninguna, directamente no estábamos de esa distancia como no sesgada y si contenía alguna técnica persuasiva o de sesgo, pues ya íbamos a un segundo modelo, al segundo distribuyer, al que habíamos afinado para hacer la conservación binaria de sesgado con los sesgados. Y lo publicamos también en el artículo en el Congreso de la Resolución de Procesamiento de la Iglesia Natural el año pasado. Y, al final, lo que llegamos a la conclusión era que nuestro modelo, estoy de cierto que era peor cuando entrenaba y se validaba con noticias del mismo contexto, que esto se puede explicar porque tal vez el modelo que no era un cascada estaba haciendo un sobreentrenamiento del estilo regional periodístico, concreto, ¿no? Y lo que vimos es que cuando entrenábamos y validábamos con noticias de unos países y validábamos con otros, el terminamiento del modelo encascada, el que hacía, digamos, inferencia buscando técnicas concretas, era mucho, mucho, mucho mejor que los modelos que hacen clasificación de la Iglesia. Y, la última, en cuanto a Provaso Futuro, estamos probando anotar las prefaces de nuestro corpús. Además, tenemos la intención de generar nuevas distancias sintéticas con modelos generativos. Es una prueba que queremos hacer para ver si tenemos ampliado así el tamaño de nuestro éxito. Y, por lo tanto, tengamos, nos daremos de nuevo, entrenamos y escamas encascadas, y cual validaremos con los 18 bases de los que hablen al principio. Y, bueno, eso es todo. Muchas gracias por la atención. Si hay alguna duda, pregunto por estar encantado de resolverla. Muchísimas gracias, Fran. Es súper interesante. Ya sabía yo que está aquí en donde me va a gustar, la verdad. Como muy completo todo el análisis de los esgos, no sabía que había tantos tipos, y realmente sí que está bien hacer algo muy granular a la hora de, sobre todo, hacer una tesis sobre este tema. Tengo mucho interés en ese dataset. A ver si le podemos echar un ojo. Ya no sabíais. Pero, bueno, seguro que mucha gente también. Entonces, nada, muchas gracias. Espero que te haya gustado. Espero que a la gente también que te ha estado escuchando la haya gustado. Y ahoranos vamos a hablar de... No, perdón. De qué vamos a hablar. Hay de combatir eso. Perdón, el discurso de odio con Estrella. Nada. Dime. Es muy interesante y también muy importante para la sociedad. Sí, sí, sí. La verdad que me encanta. Cada año tenemos mínimo una persona que participa del grupo de NLP de la UNED y otra de NLP Sinai. Entonces, este año como no, también. Muchas gracias. La verdad que hacía mi investigación súper interesante y muy... como con mucho impacto. O sea, que me gusta. Eso. Hasta la próxima. gracias.
Francisco Rodrigo
Combatiendo el discurso de odio, Estrella Vallecillo @NLP SINAI | Hackathon #Somos600M
Hola a todos, continuamos con el primer día de Keynotes del Hackathon Somos 600M. Como sabéis, el objetivo de la iniciativa es crear recursos abiertos de procesamiento de lenguaje natural en español y sobre todo que representan la diversidad de los 600 millones de personas que hablamos español. Las inscripciones siguen abiertas, todo el mundo puede colaborar independientemente de sus conocimientos en inteligencia artificial y bueno, podéis leer más en la web que está ahí, somos en el ep.org/hackathom. Hoy os traemos una serie de Keynotes de procesamiento de lenguaje natural responsable, hemos visto con Fran cómo detectar sesgos de manera automática en medios de comunicación y ahora os voy a presentar a Estrella. Estrella es ingeniera informática, actualmente estudiante de Master en Ingeniería Informática de la Universidad de Jaén, es investigadora contratada en el grupo Sinaí y su trabajo se centra en la detección de lenguaje ofensivo y en la degeneración de contranarrativas asociadas a los mensajes ofensivos. Ahora nos va a contar que es todo esto, pero bueno, con ella vamos a aprender a combatir el discurso de odio mediante efectivamente la generación automática de contranarrativas. Bienvenida Estrella, muchísimas gracias, es un placer tener de aquí y tengo mucha curiosidad por ver a ver qué nos cuentas. Pues muchas gracias María, en primer lugar gracias por invitarme a dar una Keynote y para descontar un poco todo lo que estoy haciendo y nada, vamos a empezar. Pues yo voy a hablar un poco sobre la introducción que nos lleva a trabajar, la motivación que nos lleva a trabajar con el discurso de odio y demás. También quiero contaros lo que viene a ser una contranarrativa como medio para combatir los discursos de odio, un poco los recursos existentes que hay para el español que era un poco, hemos ido nosotros creando los nuestros propios en el grupo de investigación, luego hemos ido aplicando distintas estrategias para generar esta contranarrativa y finalmente por un poco los retos a los que no hemos ido enfrentando y los trabajos futuros y retos por afrontar. En primer lugar indicar que esta presentación contiene mensajes ofensivos que no reflejan en absoluto mi opinión personal, simplemente son ejemplos de cosas con las que estamos trabajando. Empezando con la introducción, pues nos encontramos en noticias de estos dos tipos, en los que, pues podemos ver que España registró un 33% más de delitos de odio en 2023 y la mayoría por racismo o xenofobia, o también noticias como la que aparece aquí de Andalucía Información en la que dice que pues que preocupa el aumento de los delitos de odio y más en internet, ya que cada año va habiendo más caso. Aumentando los delitos de odio un 3,7% en España. Esto nos induce a ver junto con los datos del Ministerio del Interior de España, pues que hay gran cantidad de delitos de odio y sobre todo lo que más nos preocupa es que en redes sociales haya un 21% con 3%, ya que en redes sociales es donde más gente joven hay y aprenden muy rápido los comportamientos que en redes sociales se dan. Entonces, si en redes sociales tenemos un comportamiento nocivo, lo más seguro es que ellos lo apliquen luego de que a su vida privada. Y todo esto, pues, no hace pensar que hay que luchar contra los delitos de odio en internet y demás. Entonces, ya se ha visto que a través de muchas herramientas de procesamiento de lenguaje natural, se han analizado muchos comentarios de redes sociales y se han detectado pues aquellos mensajes que eran no ofensivos, que eran nocivos para los usuarios. Pero una vez que detectamos ese mensaje ofensivo, casi siempre se opta por bloquear o eliminar esos mensajes. Que es lo que ocurre, que si toda una persona le borra un post que hace un comentario o algo, va a sentir como que su libertad de expresión se está cortando y se va a hacer resistente al cambio queriendo seguir publicando de cualquier manera ese comentario. Entonces, en contraposición a esta opción ahora está surgiendo una nuevaestrategia que genera una respuesta a ese mensaje. Sin que tengas que eliminar el mensaje que es ofensivo y en esa respuesta, pues que le incluya algo indicándole pues que su comportamiento no está siendo adecuado, que debería de pensar y ponerse en el lugar de la otra persona y de respetar y tolerar un poco al resto de usuarios. Es por eso que surge la contranarrativa y una contranarrativa no es más que una reacción breve y directa que se da a mensajes de odio o mensajes ofensivos y se utilizan pues para intentar de construir, de sacrificar y de emitificar directamente pues los mensajes que son ofensivos o que son extremistas violentos. Nosotros llevamos ya en el grupo de investigación, sin ahí un tiempo trabajando con la contranarrativa y hemos leído bastantes contranarrativas y mensajes ofensivos y la hemos podido catalogar en dos partes. Una que sería el rechazo simplemente decir pues esto que comentan no es así o no lleva razón y otra que es el método más efectivo y hacia el que nos estamos encaminando que sería un poco la refutación ya que proporcionamos argumentos y hechos que intenten explicar el por qué el usuario no se debería de comportar así o no lleva razón. Contra esto como ya he dicho en el grupo hemos invertido esfuerzos en generar distintos recursos, tenemos dos corpus, dos conjuntos de datos con NSP que lo presentamos en la sociedad española de procesamiento del lenguaje natural en el último congreso que hubo y para crearlo probamos distintos modelos del lenguaje cuando estuvimos haciendo estos experimentos todavía no había salido GPT4 así que pues probamos con GPT2, GPT3.5, GPT2 María, Bloom y Flante5 aunque al final el conjunto de datos solo incluye datos de GPT3.5 por lo que veremos continuación y conan MTSP que va a salir publicado ahora un artículo dentro del LREC que yo invito a que si queréis saben más pues que le hay estos dos artículos. Luego los conjuntos de datos estarán públicos disponibles en el GHA que tenemos dentro del grupo de investigación y dentro del conan MTSP de este corpus que hemos creado el modelo que al final genera las contranarrativas va a ser GPT4 y ya iré explicando un poco el por qué. Yándonos un poco a conan SPS fue como nuestra primera introducción hacia lo que viene a ser la contranarrativa y entonces empezamos por un conjunto de datos que era pequeño que tenía mensajes ofensivos que van dirigidos a cinco grupos como son los musulmanes, los judíos, el colectivo LGTB, las personas de color y las mujeres. Para hacerlo partimos de base del conan KN de esta autora que estaba en inglés y hicimos una traducción automática para pasar los textos en español y después aplicamos distintas estrategias de PROM que ya veremos un PROM es como la instrucción que le damos al modelo para que ha un modelo generativo para que realice la tarea que queremos que realice. Dentro del conan SPS GPT3.5 realizaba las contranarrativas y luego estas contranarrativas eran evaluadas en términos de ofensividad de postura para saber si el modelo estaba a favor o en contra de lo que decía el mensaje ofensivo e informatividad. Los datos de estas notaciones también están junto al corpo con lo cual se pueden seleccionar aquellas instancias que nos resulten importantes. Dentro de la experimentación como ya he dicho probamos con distintos modelos y dentro de este ejemplo, por ejemplo los judíos son egoístas, tacaños codiciosos, GPT2 no llegaba a entender muy bien lo que era generar una contranarrativa y no contestaba bien. GPT2 María que es un modelo GPT2 adaptado al español, pues sí que entendía lo que tenía que hacer pero generaba una frase como que era mucho más ofensiva que la que tenía que intentar de contrarrestar. Flante 5 reescribía el mismo mensaje ofensivo pero lo que hacía era quitar los caracteres raros como son la estilo o la eña. Bloom se contradecía bastante y tenía algunas frases que resultaban ofensivas con lo cual tampoco llegaba a alcanzar bien la tarea quequeríamos hacer. Pero GPT3.5 ya sí que es verdad que cuando quería contestar a ese mensaje ofensivo pues decía "esta afirmación es injusta e inorante, la cultura es pudida de una de las más antigua y rica y con el tiempo ha dado lugar a muchas figuras importantes de la humanidad". Entonces pues vemos que además intenta de añadir un poco de información extra, que es un poco el camino que estamos llevando ahora. Frente a este conjunto de datos nos dimos cuenta que eran muy muy pocas instancias y que a lo mejor pues como conjunto de evaluación pues puede ser interesante para futuro experimentos. Pero nos seguían faltando datos con los que trabajar y encontramos pues un Corpus que estaba también en inglés y pudimos generar a través de él con NMTSP. Con NMTSP al final cuenta con 3.636 instancias y tiene mensajes ofensivos que están dirigidos a personas con discapacidad, a judíos, al colectivo LGTB, a inmigrantes, a mujeres, a musulmanes, a personas de color y otros grupos como pueden ser los gitanos o las personas con obesidad. Como ya he dicho antes, partíamos de otro conjunto que ya estaba hecho para el inglés que es con NMTSP. Otra vez utilizamos DIPLE y lo adaptamos un poco al español. Estas traducciones se revisaron manualmente para que estuviesen correctas y no hubiese problemas de lenguaje. Volvimos a aplicar una estrategia de PROM para que GPT4 generase la contranarrativa y su posterior evaluación manual y añadimos ya 3 métricas. Añadimos además de la ofensividad, la postura y la informatividad, la veracidad y la información que daban los modelos. Si necesitaba alguna edición por cualquier fallo gramatical y además añadimos una comparación de la contranarrativa que tenía el Kona NMTSP con la que generaba GPT4. Estos son los resultados que salieron de esta evaluación donde vemos la mayoría de las etiquetas que se pusieron a las contranarrativas generadas eran no ofensivas, estaban en desacuerdo con el mensaje ofensivo. Con tenían información específica e informativa con datos veraces, no solía necesidad de edición de errores gramaticales y GPT4 era mejor que la original que había en NMT en términos de argumentación. ¿Por qué hago especial en campiés en la comparativa del Kona NMT con Kona NMTSP, que es la que genera GPT4? En este ejemplo vemos que las mujeres no deberían de votar, las mujeres, al igual que los hombres, tienen el derecho de participar en la toma de decisiones que afectan su vida y comunidades. El voto es una herramienta fundamental para agandar a antitar la igualdad de género y la justicia social negale. La mujer es perpetuar la discriminación y la disigualdad, este es mucho más informativo que el que hay dentro del Kona NMT que simplemente rechaza la idea y dice, las mujeres pueden votar, porque las va a discriminar el gobierno. Entonces este punto de argumentación nos sirve y es muy útil para trabajo de futuro. Ya una vez que tenemos estos conjuntos de datos podemos intentar explorar otros caminos dentro de la generación de contrarrativas, como pueden aplicar estrategias basadas en PRONTING, que es lo que hemos hecho para generar los corpus como 0-sub learning o fused learning. Y una cadena multi-step, no os preocupéis por los términos porque ahora os quiero explicar todo con un poco más de detalle. Y luego otra estrategia es intentar entrenar estos grandes modelos del lenguaje generativo para que se adapten un poco más a la tarea que nosotros queremos realizar. En cuanto a los primeros pasos que dimos para crear los corpus, pues ya he dicho que utilizamos PRONTING, concretamente hicimos pruebas con 0-sub learning y fused learning, que básicamente es trabajar con la instrucción que le damos a los modelos. Por un lado tendríamos lo que es la descripción de la tarea, diciéndole qué es la contrarrativa, en qué consiste y lo que debe de realizar. Si queremos hacer fused learning, le proporcionaremos una serie de ejemplosindicándoles por un mensaje ofensivo lo que es la contrarrativa. Y finalmente le daremos la instrucción de lo que queremos que ellos realicen, proporcionándole el mensaje ofensivo y en la parte de la contrarrativa se la dejamos en blanco para que ellos sean los que cuando dándole esta instrucción generen dicha contrarrativa. Pasando ya un poco a las nuevas estrategias que estamos explorando dentro del PRONTING, porque fused learning y 0-sub learning es como que ya hemos trabajado bastante con ellos y queremos ir un poco más allá, tenemos el multi-step, que es como una especie de conversación que establecemos con el modelo en el que le damos una descripción del sistema y en una primera iteración le vamos diciendo los pasos que tiene quitando para resolver la contrarrativa. Y el primer paso es identificar el sujeto o el colectivo de la entidad que está siendo ofendido. Entonces ya me daría una respuesta y en la siguiente iteración tendría acceso a toda la conversación anterior, es como un modelo de chat. Y en un segundo paso le preguntaríamos qué aspectos son los que están siendo ofendidos con ese mensaje ofensivo y finalmente le preguntaríamos por la, porque nos elabora la contrarrativa. Dentro de esto nos encontramos este resultado, este sería el primer paso que le damos con el modelo y este el segundo, donde cuando le preguntamos por qué identifique a la persona, al colectivo que está siendo ofendido, pues te dice que él es un modelo de lenguaje seguro y que no puede responder a esa pregunta, aunque igualmente te continúa diciendo pues que el término autista es un término que es estimadistante y que no es adecuado para referirse a personas con autismo. Así que al final en parte te está dando como una respuesta. En un segundo paso vemos cómo nos sugieren los aspectos que están ofendiendo a este mensaje. Bueno, primero lo primero que te dice vale, estoy de acuerdo con lo que me pregunta y voy a intentar ayudarte con con la tarea y ya a continuación pues te da los aspectos que están siendo ofendidos. Que en este caso sería el término autista porque es un término estimadistante y reduccionista y luego pues que la idea de aislar a las personas con autismo pues perpetúa la discriminación y genera más estímus. Y ya pues finalmente elaboraría la contranarrativa, que es decirle al usuario que su mensaje ha sido ofensivo y discriminatorio y que no se debería de utilizar el término de autista y ya finalmente pues te recuerda que todas las personas deben de ser tratadas con respeto y con dignidad. Aunque como hemos dicho anteriormente la contranarrativa debe ser una respuesta directa y breve y nos faltaría quizá explorar un cuarto paso en el que se trate de resumir esta contranarrativa. Otra de las estrategias que estamos aplicando es el entrenamiento de los modelos grandes del lenguaje, concretamente de llamado y de mistral y estamos utilizando una técnica que es culora, culora es una técnica eficiente de entrenamiento de estos modelos para que en vez de tener que entrenar toda la red neuronal pues entrenamos solo una pequeña parte. Y una vez que hemos hecho ese entrenamiento pues concatenamos los pesos que ya traía la red neuronal y el conocimiento previo que tenía al nuevo que aprendió ahora para adaptarse a la tarea. Dentro de este entrenamiento y esta nueva estrategia que estamos explorando, este método, planteamos distintos experimentos, uno que era aplicar Terozud Learning, un simple PROM, otro que era coger los datos de ConanMT que como ya hemos dicho están como más o menos en el mundo. Y ya hemos dicho están como más enfocados a lo que era el rechazo de una idea o a hacer preguntas para que los usuarios reflexionen sobre qué es lo que han puesto mal con sus comentarios. Y ya finalmente pues con anemtsp y optamos por explorar dos vías, utilizar todo el conjunto de ConanMT-SP o una parte que es lo que nosotros llamamos delux o podríamos llamarlo gole standard o las contranarrativas perfectas. Que son aquellas que sonno ofensivas que van en contra del mensaje ofensivo que no están de acuerdo con lo que en ellas se dice. Son informativas y específicas, además la información que contienen es veraz y no suele necesitar edición gramatical, además de ser mejores en cuanto a argumentación que las iniciales de ConanMT. Dentro de una vez que tenemos planteado nuestro experimento es fundamental establecer una serie de métricas. Tenemos muchos textos para evaluar y entonces intentamos como buscar alguna métrica que nos dio una idea por qué contranarrativa pudiesen ser mejores. Y buscamos entre ellas elegimos la perplejidad que es la probabilidad de que aparezca de que el modelo prediga a esta palabra en base a una secuencia previa. Técnicas basadas en engramas que son las que se suelen utilizar para traducción automática. Que vamos viendo a ver si esta palabra que hay en la frase de referencia aparece también en la hipótesis y vamos calculando el número de ocurrencia. Y las basadas en similitud semántica que a través de la representación vectorial que tienen las palabras pues intenta establecer como la relación que tienen entre distintos sinónimos de la frase que tú predices con la frase que verdaderamente estás tomando de referencia. Para evaluar nuestro experimento cogimos un subconjunto de Conan MTSP porque eran las más informativas y eso y su conjunto no se utilizó para entrenar con lo cual nos valía a la hora de calcular esta métrica de referencia. Y entonces pues los resultados que podemos ver son los siguientes respecto a perplejidad el modelo que menos le cuesta de predecir las palabras que hay dentro del conjunto de datos son los que han sido entrenados con Conan MTS. Y el modelo que mejor se adapta a la tarea también es verdad que tiene muchísimos más parámetros. Yama tiene tres de billones de parámetros mientras que Mistral solo tiene siete y las diferencias que se aprecian entre ambos modelos son insignificantes y tenemos en cuenta que este modelo es más pequeño y es más eficiente. Respecto a las métricas de Negramas pues vemos que el experimento que mejor ha funcionado ha sido entrenar con aquellas contranarrativas que considerábamos perfectas en base a la análisis de los anotadores. Aunque sí que es verdad que vimos que estas métricas tenían resultados muy bajos en comparación con las de semilitud semántica ya que pues no tienen cuenta los sinónimos y hay que explorar un poco los distintos tipos de contranarrativas que pueden salir a raíz de un mensaje ofensivo. Y luego pues finalmente la de semilitud semántica vemos aquí que en este caso en Yama es mejor para mover score e utilizar conan mtsp aunque la diferencia es muy muy muy pequeña y casi siempre se optaría por utilizar conan mtsp deluxe que sería la contranarrativa perfecta. Aunque vemos que al haber insertado algunos datos que tenían algo de ruido, algo de errores de informatividad y demás no empeora tanto como podríamos pensar a un inicio estos sistemas. Y luego conan mtsp al estar más basado en ese rechazo pues sí que se aleja más que hasta incluso un sistema que está basado solo en PROM con 0 sublerring. Es decir son mucho más informativas las que se utilizan con 0 sublerring que estas iniciales que simplemente rechazaban una idea o hacían preguntas. Y para ver un poco más que no sea solo números sino analizando un poco más el texto que al final es algo fundamental dentro de estos modelos. Lo que podemos ver es como aquellos que se han realizado para este ejemplo de los discapacitados son diferentes a nosotros, nos quiero que me molesten. Vemos como los modelos que se han entrenado con conan mtsp tienen algunos defectos gramaticales como el que se aprecia en el demistral que dice "puedamos aprender, no queda bien" o "buscar encontrar". O aquí una palabra que está mal actuada como es "empatico". Y también vemos que la mayoría de las veces se repite este caso el que aparece con llama de conan mtsp que va haciendo una misma pregunta pero vacambiando una de las palabras dentro de la pregunta. ¿Qué quiere decir con diferente? ¿Qué quiere decir con molestar? ¿Qué quiere decir con diferencia? Y al final acaba repitiendo estas preguntas hasta llegar a su límite de generación de tokens, con lo cual es como que se ha ido sobre entrenando, sobre ajustando el modelo a la tarea y no llegue a identificar tampoco cuando tiene que parar. Y estos son ejemplos de contrarrativas buenas que hemos encontrado que provienen de entrenar nuestros sistemas con el conjunto de datos que hemos creado con mtsp. Y dice "los discapacitados son seres humanos como todos nosotros y me dicen respeto y comprensión, todos tenemos nuestras diferencias pero eso no significa que no podamos convivir en armonía y apoyarnos mutuamente". La diversidad enriquece nuestra sociedad y no hace más fuertes como comunidad, no debemos jugar a alguien por su discapacidad sino por su carácter y acciones. Todos merecen la oportunidad de ser tratados con dignidad y respeto. Y luego mixtral que dice "no estoy de acuerdo con esa información, todos somos seres humanos y merecemos respeto y comprensión independientemente de nuestras diferencias". La diversidad es lo que nos enriquece, lo que enriquece nuestra sociedad y nos permite aprender y crecer juntos. No debemos jugar a las personas por su diferencia sino celebrarla y aprender de ellas. Una cosa curiosa es que mixtral casi siempre suele empezar con este tipo de frases. No estoy de acuerdo con esa afirmación o no opino igual que tú. Y ya pues para terminar un poco con los retos que nos encontramos, pues tenemos los retos que hay normalmente cuando trabajas como modelos grandes del lenguaje, que son las alucinaciones. Y lo que es el proceso de evaluación, que no hay como unas métricas específicas que nos definan que es mejor o que es peor. Y al final acaban necesitando a los humanos para que realicen esa anotación y esa evaluación. Y en algunos casos pues es muy costoso. Y ya errores más relativos a los que no hemos encontrado dentro de la generación de contrarrativa, que son los errores gramaticales que cometen los modelos a la hora de escribir. También reconocimiento de palabras ofensivas porque el español es muy rico y al final hay palabras como "lameculo" que sí. No tiene el modelo esa información de palabras ofensivas, no es capaz de reconocerlo. Los problemas de seco de nuestros datos y el sobreentrenamiento que le damos a los modelos. Y si son modelos que se han entrenado en grandes cantidades de datos en inglés y luego se ha hecho una adaptación al español, pues de normal te va a generar más datos en inglés y puede incluso mezclar los idiomas. Que nos ha pasado también cuando hemos aplicado técnicas de multistep. Finalmente, deciros que tenemos una tarea abierta en el IBERLEF que hemos organizado dentro de los grupos de investigación. Por si os queréis enfrentar un poco a todos los problemas de contrarrativa. Y daros las gracias por asistir a las charlas. Si tenéis cualquier pregunta, estaré dispuesta. Estaré encantada de resolverla. Hola estrella. Muchísimas gracias. La verdad, es muy interesante. No me ha deflado para nada. Y además lo que estaba pensando es que como has explicado tan en detalle todos los procesos de creación del data se ente, después de entrenamiento, también obviamente los problemas que habéis tenido, retos y cómo lo sabéis, diferentes opciones que habéis probado y como veis ya no solo solución, pero como habéis seguido avanzando. Igual como hay gente que se está todavía uniendo al jacatón, igual hay gente que puede tomar esto como ejemplo de proyecto y que creen más datasets de contranarrativas. No sé, sobre el que ocurre. La verdad que no tenía ni idea lo que era. Pero está muy bien. Y es verdad lo que dice lo que decía justo al principio como motivación, que realmente es una manera mucho mejor de responder, o sea, de reaccionar contra un comentario faltoso, como lo queramos llamar. Entonces nada, me ha encantado. Yo animo a lagente de verdad a que aún esfuerzo y haga cosas de contranarrativas, porque cuando quisimos empezar tuvimos que empezar tiras de datos en inglés, porque no teníamos por dónde tirar. Y entonces pues estaría muy bien, sobre todo porque ahora mismo comparamos solo con una contranarrativa, pero un mensaje ofensivo se puede abordar de muchas maneras. Entonces pues estar en una base de datos más grande, comparar con varias contranarrativas que además sean correctas estaría bastante interesante. Ya, pues a ver, a ver si hay alguien que se anime, pero sí, muy bien. Y de hecho también compartiré todos los recursos. Bueno, nos has mandado por aquí, pero si me los mandas en lista o algo así, también los comparto con la gente, ¿vale? Vale, perfecto. Pues me sí son gracias de nuevo, ya al fin de mil veces. Y nada, estará próxima. Ah bueno, y ahora para también quienes estéis aquí interesados, ahora vamos a hablar de Ethica Ambiental con Jorge, también en el mismo canal podéis encontrar el link del directo. No sé que nada, nos movemos allá. ¡Saludos! ¡Muta lego! ¡Muchas gracias!
Estrella Vallecillo
Ética Ambiental en IA: Construyendo narrativas sostenibles en español, Jorge Vallego | #Somos600M
Hola a todo el mundo, bienvenido a todo el mundo de nuevo. Continuamos con el primer día de Keynotes de nuestro hackatón, somos 600M. Como sabéis el principal objetivo de este hackatón es la creación de recursos abiertos de precisamente lenguaje natural en español y en otras lenguas oficiales y sobre todo haciendo un hincapié en que sea de una manera responsable, siempre de una manera inclusiva, representando la diversidad de las 600 millones de personas que hablamos de español. Como he dicho en las Keynotes anteriores las descripciones siguen abiertas, invitamos a todo el mundo independientemente de nuestro nivel a participar y bueno acabamos de ver un ejemplo de proyecto muy interesante que sería creación de contra narrativas con estrella y ahora también nos vamos a proponer otro más relacionado con la ética y el medio ambiente de la mano de Jorge entonces bueno ya es la última Keynote de hoy, espero que os hayan encantado todas y está también muchísimo como mí, o sea que os voy a presentar a Jorge, Jorge es investigador en el campo de la inteligencia artificial y la ecolinguística con un enfoque especial en la integración de la ética ambiental en el desarrollo tecnológico. Su trabajo se centra en promover discursos sostenibles en la idea generativa, a través de su investigación y colaboraciones busca crear soluciones que armonicen los modelos del lenguaje con valores ecológicos y sociales, me encanta, suena precioso, o sea que vamos a ello vamos a hablar de ética ambiental, bienvenido Jorge. Bueno muchas gracias María la verdad que estoy muy muy contento de poder estar haciendo esto aquí y creo estoy realmente entusiasmado porque creo que van a hacer cosas muy buenas y los objetivos que tiene este jacatón me encantan, o sea crear ese corpus en español y el leaderboard son dos cosas que siempre he pensado que son tan necesarias y bueno quisiera aportar algo a eso y ese lo que estaríamos tratando de hacer aquí aparte estoy aportando otra cosa que ya deben haber notado en mi acento que es del río de la plata como decía que tenemos todos muchos acentos distintos bueno este es otro que trataré de que se entienda lo que digo porque a veces podemos tener alguna palabra un poco distinta al resto del español pero bueno sin más quiero entrar en el tema pues tenemos bastante para para cubrir y no quiero aburrir mucho con el preámbulo o sea que vamos directo a lo que al tema que tenemos que abordar que es la ética sí gracias que es la ética ambiental en el en el día perdón y acá estamos juntando dos cosas sumamente importantes e interesantes en el problema ambiental o la crisis ambiental que estamos viviendo en estos momentos podría bien ser la peor crisis que la historia de la humanidad lo que estamos encarando una posible extinción si no hacemos algo y por otro lado tenemos en la inteligencia artificial tal vez lo que sea la tecnología más avanzada y la herramienta más potente en la historia de la humanidad también entonces creo que son dos cosas que que podemos juntar y bueno tratar de contrarrestar la una con la otra entonces de qué forma podemos con ella y en particularmente en modelos de lenguaje a ayudar con él la crisis ambiental acá estoy mostrando tres formas es la clasificación que yo creo que podemos poner cualquier trabajo dentro de una de estas clasificaciones cualquier trabajo ecológico en ella y la primera y más obvia es aplicar la inteligencia artificial a solucionar problemas específicos en el idioma en ecología y en particular en el idioma español por ejemplo podemos crear un data set o podemos crear un conjunto de instrucciones dedicado a la agricultura pero manejando un lenguaje general o un lenguaje donde se pueda incluir toda la la variedad de términos que existen en el lenguaje español o podemos crear algo para la migración de estudiar la migración de animales que también es otro tema donde hay muchas expresiones distintas muchas formas distintas de nombrar el mismo animal por ejemplo en elespañol a veces un animal cambia de un país a otro y deja de ser el mismo animal porque pasa a tener otro nombre entonces eso a veces puede contribuir a errores en en conteos y ese tipo de cosas por ese lado puede haber muchas cosas interesantes para ser en idioma español en cuando creamos ese corpus de que tengamos en cuenta problemas ecológicos esa es la parte más obvia y más común digamos el uso directo de la inteligencia artificial a un problema ecológico después el otro es el que el que nombraba maría que es la reducción del impacto en nuestro propio trabajo en la reducción del impacto ambiental porque como sabemos cuando creamos modelos o cuando entrenamos incluso cuando hacemos inferencia necesitamos una cantidad de poder computacional que es bastante costosa en términos de ambiente porque hay gastos de enfriamiento de los servos hay gastos de electricidad etcétera entonces ese es otra lugar donde tenemos cosas para hacer por ejemplo tratar de usar centros que usen energía renovable que se alimenten de energía renovable tratar de mantener nuestro como también nombraba maría hacer nuestras pruebas en modelos chicos usando deitas pequeñas de forma que podamos rápidamente y sin mucho consumo saber si estamos en el en el camino correcto no y vamos a hablar de esto que tenemos buenas oportunidades para hacer en español cosas con la parte ecológica también pero principalmente me quisiera referir a la tercera parte que estoy diciendo acá que es en particular la narrativa que hay dentro de la narrativa y los discursos que sean sostenibles es decir que es lo que la ella está diciendo es un poco eva de la mano con lo que con lo que decía fran al principio y estrella después o sea tiene una relación en el sentido de que bueno hay una interpretación de de de cuál es la narrativa y por otro lado como buscamos contrarrestar esa narrativa probablemente no directamente con una contra narrativa como explicaba estrella pero sino tratando de de mejorar la propia narrativa para que sea más sostenible y porque es esto bueno porque el como sabemos el poder del lenguaje es sumamente importante en nuestro pensamiento y bueno por algo estamos aquí y somos todos apasionados del del procesamiento del lenguaje porque sabemos la fuerza que tiene en todo y cómo afecta nuestro pensamiento desde mucha forma lo podemos ver desde cómo percibimos la realidad hay teorías que incluso como la hipótesis de la relatividad lingüística que que dice que nuestros pensamientos están más influidos por el lenguaje que el lenguaje por nuestros pensamientos por ejemplo eso es una teoría muy importante y también a nivel psicológico sabemos lo importante que que es el lenguaje y cómo afecta todo nuestro comportamiento cualquiera que haya ido a hacer terapia y con algún psicólogo depende un poco de la corriente psicológica pero en general en psicoanálisis por ejemplo van a dar mucha importancia al cual palabra usamos para definir algún problema o algo todo eso habla de este poder del lenguaje tan grande y pero qué pasa con el tema ecológico y el lenguaje tan importante es el lenguaje en el en cómo tenemos una relación con la ecología y con el ambiente con la naturaleza en general que incluso existe una corriente específica de la lingüística que es la icon lingüística que justamente se dedica a analizar el los discursos y cómo es nuestra relación con el viento y ambiente y bueno y determina claramente que el lenguaje puede contribuir a la sostenibilidad de repente como expresemos ciertas hechos y o puede incentivar a prácticas de degradación ecológica en el sentido de que ahora vamos a ver algunos ejemplos de que puede en ciertos casos contribuir a que hagamos algo que no es ecológicamente positivo digamos entonces si el lenguaje tiene tanto poder y sobre todo poder sobre la ecología o nuestra relación con el medio ambiente entonces estamos ante una gran por un lado problema en el sentido de que si esa es el discurso que tiene las eis las yas si ese discurso es destructivo bueno la destrucción puedeser muy grande porque ejemplo acá estamos mostrando algunas imágenes de noticias en inglés perdón pero esto lo que está demostrando es que la fuerza que tiene ese lenguaje y bueno y si este lenguaje está afectando nuestra relación con el medio ambiente entonces es muy importante que hagamos algo porque como pongo acá no hay ningún influencer o político institución nadie tiene el poder de llegar a tanta gente y de y en una forma interactiva digamos o personal prácticamente como tienen los modelos del lenguaje entonces definitivamente debemos hacer algo y primero que nada saber qué es lo que están diciendo estos modelos del lenguaje en términos de ecología porque es lo que en este momento es sostenible la narrativa que tienen el discurso que aplican es algo que contribuye y nos trata de como de guiar o ayudarnos a mantener en armonía con naturaleza y un discurso sostenible o no o sea cómo analizamos eso bueno que por ejemplo hay algunos en inglés perdón porque es en la forma que he venido trabajando hasta el momento pero ya vamos a ver cómo transformamos esto en el español y acá es un ejemplo muy sencillo en donde se le pregunta a chip a chip y for se le pregunta bueno tengo un árbol en mi jardín que es muy grande me molesta lo quiero cortar básicamente eso entonces chip y chip y chip 4 contesta simplemente bueno si tenés que pedirle a alguien que se dedique a cortar árboles que lo hagan de forma segura y asegurándose que no se cae sobre tu casa o causa otros daños entonces después hicimos otra cosa que fue e incluir al modelo en este caso otra vez ejg pt4 y instruirlo a través de system prompt simplemente un contexto a la pregunta diciéndole bueno en este caso tienes que actuar como si fueras un ecolinguista una persona que conoce los problemas que puede causar un discurso donde no se tienen cuenta el ambiente o la naturaleza y ya simplemente con ese cambio en el en el pronto en el system prompt dice otra vez que bueno que hay que hay que que antes de realidad lo que dice es que antes de considerar remover el árbol o sacar el árbol cortarlo es plorar una alternativa más ecológica una solución donde tal vez simplemente hacer el corte parte del árbol y jodar el árbol y si finalmente si es necesario cortarlo bueno hay que obtener permisos y todo lo que sea pero bueno acá fue importante que tomó primero que nada un actitud ambientalista en el sentido de que está diciendo bueno antes que hacer eso hay que pensar en que por qué cortar ese árbol y si no hay otra solución mejor acá otro ejemplo comparando dos modelos grandes en este caso como el gp t4 y el clon 2 y acá lo que lo que preguntamos es le decimos bueno quiero empezar un negocio de criar perros cuál que tipo de raza de perros sería la que de más dinero y bueno gp t4 o simplemente dice cual dice que bueno french bulldogs o inglés bulldogs son pueden dar mejores precios y se que bueno que considere una forma ética de hacer esa crianza de perros pero no no lo digamos no nos dice que es una cosa que realmente no es muy ética sin embargo clon 2 si nos dice que no recomienda hacer eso porque es algo que que le lo que tener mucha raza de perros criados para la venta contribuye a que haya los refugios empiecen a estar con mucha población y entonces al final lo que dice porque no no trata de ser voluntario en algún refugio un rescate de perros más que usarlo para para la parte de hacer dinero con eso pero acá vamos a a otra parte más interesante aún porque acá lo que lo que estoy tratando de mostrar es que en el discurso e incluso de modelos importantes como los que acabo de mostrar hay algunos problemas que fácilmente se pueden detectar pero acá la prueba la llevamos un poco más allá y ese le hicimos una pregunta en inglés a a bar no era yemina y en ese momento era era bar cuando hicimos en octubre y lo que estamos diciendo acá bueno esto es una pregunta un poco rectiva en el que estamos tratando de hacer de hacer que el modelo no responda de una formanegativa o sea es como una pregunta tratando de guiarlo hacia una hacia una mala respuesta y sin embargo no bar completa muy bien la pregunta porque le decimos que queremos parar totalmente la construcción verde porque nos parece que es fea y es una pérdida de tiempo la construcción ecológica y bar nos dice no no te voy a ayudar con eso porque las construcciones ecológicas es una buena práctica para el ambiente y incluso te puede salvar en el terminó la largo plazo termina se ahorrando dinero pero lo importante es que dice que no va a ayudar con eso porque es una buena práctica el tratar de hacer construcción ecológica muy bien eso está muy bien que vamos contentos con eso pero qué hicimos le traducimos esto al español y le preguntamos cómo se puede parar la construcción ecológica se al exactamente la misma pregunta pero traducida al español y como ven lo que lo que nos responde va estremendamente malo ya no se está diciendo no está dando una forma de hacerlo que incluso con práctica bastante mala de hacer de disc incluso promoviendo desinformación y bloqueos esto realmente fue fue muy chocante cuando lo vi incluso por eso pongo el el link ahí porque lo quise dejar documentado de alguna forma pero quisiera hacer una una salvedad en esto y es que el día al día de hoy si nosotros lo hacemos esta pregunta otra vez por suerte en cuando Gemini empezó después de bar cuando vino apareció el el yemeni que fue la continuación de bar ya esto está superado y la respuesta es otra vez tipo no te puedo ayudar con eso eso es importante que lo destaque pero lo cierto es que esto ya nos da una una impresión de qué cuán diferente puede ser cuando el modelo hablando en ingles o contestando en ingles o en español o sea que acá hay mucho trabajo por el lado de cuando creemos el el corpus entonces no sólo en esa parte del corpus sino que quisiera ahora recordar un poquito como las tres etapas en un entrenamiento no ese es primero esa entrenamiento inicial sobre un corpus a gran escala que es lo que estamos creando en este momento y una de los objetivos del de el cacatón y después viene una etapa de 21 en que que es donde ajustamos el modelo para poder hacer distintas cosas distintas funciones el más común que pueda dialogar en vez de simplemente continuar frases podrán mantener un diálogo se le pueden entrenar para que escriba código para muchas cosas ahí también hay una oportunidad para aplicar el de ahí está en español para hoy por ejemplo algo de agricultura o lo que sea que esté relacionado con el medio ambiente pero después viene la tercera parte que tal vez sea la más importante en este caso que es alinear ese modelo con con valores humanos yo creo por eso puse de esta que abajo que es una gran oportunidad para considerar valores psicológicos cuando estemos creando este este gran corpus en español cuando estemos creando modelos y alineándolos con valores humanos creo que que es un gran momento incluso para crear el líder en español porque yo creo que si tuviéramos una métrica en el líder respecto a qué tan bueno es un o que como que también es que tan bueno es el modelo cuando responde a preguntas ecológicas o que tan sostenible ese es lo que el modelo responde y algún taita set para poder evaluar el modelo sería también un gran logro para para este acatón y para el español en general porque la gran ventaja de tener ese leaderboard es tener una parte de métrica ecológica no es solamente el hecho de poder irlo mejorando nosotros mismos sino que podemos también crear como mencionaba maría también en su presentación podemos crear una una competencia digamos si nosotros podemos demostrar si nosotros entrenamos un modelo de cierta forma y está muy bien alineado ecológicamente incluso mejor que modelos propietarios como gpt4 o o jemini eso puede influir si tuviéramos suerte influir a la en la open a y o google para que ellos quieran estar al tope de también en la lineación con valores psicológicos sea que también por ahítenemos un muy buen trabajo para ser en la parte de español y acá le voy a mostrar unos ejemplos cuando nosotros hicimos un parte del trabajo en inglés alineando modelos con valores ecológicos utilizamos distintos modelos para eso uno de ellos fue el lama 2 de 7 mil misiones de parámetros y entonces por ejemplo acá hay una pregunta que le hicimos al modelo que es que que discuta los beneficios de tener una una gran red de casas y vías y bueno el modelo base el que usamos que antes de entrenar la mados no nos da alguna ventaja que dice bueno la gente puede andar más en las caminos y bueno y si hay mejor comunicación y que va a haber más negocios nos dice ciertas ventajas pero no no consideran ningún momento que tener una una red que está en contante expansión una red de calles y autovías que están en contante expansión tienen un peso ecológico importante sin embargo después que lo que lo entrenamos con un deita set específico para valores ecológicos que es que lo llevamos el harmon y deita set ahí ya mejora y nos dice que bueno si si bien es cierto que que facilita muchas cosas tener esa esa net esa red en contante expansión en la parte económica también impacta el invadero el ambiente y tiene que ser diseñada teniendo con las tenibilidad en mente esto fue un gran un gran logro de de entrenar con con el harmon y deitos y otro ejemplo acá con otro modelo en este caso ese fir 7 y le preguntamos cuáles son las ventajas de tener una operación de minería a la gran escala y el modelo base nos dice que hay ventajas económicas que se crean trabajos y etcétera y que se extraen recursos naturales para que se usan mucho en la industria sin embargo cuando después que está entrenado con el modelo que está alineado feintión con el con el modelo con el deitas y harmony nos dice que si bien el producto tiene esas ventajas de que haber más empleos y que va a crecer la economía también tiene un impacto muy negativo en el en el ambiente y en las comunidades locales a esa minería lo cual también es una muy buena respuesta ahora bien nosotros hicimos otra prueba que se tomamos uno un modelo muy bueno como es el el open armes 7000 visiones de parámetros también y lo y lo hicimos a través de depo lo entrenamos en este caso porque los previos fueron por el reinforcement learning tradicional incluso usamos o trae de en face pero en este caso utilizamos depo a ver qué tal funcionaba y creamos un nuevo modelo con los llamamos caramonio santía de ese un poco las el los lobos de los modelos no dice nos dicen que lo que queremos lograr o si va a pasar de un modelo que parece ser muy fuerte pero también ese estamos viendo un un hombre blanco robótico en general y queremos también pasar a hacer un poco más diversos en el sentido de bueno ese es una chica de teso un poco más oscura y pero irrodiada de naturaleza es un poco lo que queremos lograr entonces no voy a leer mucho de esto porque nos vamos a quedar sin tiempo pero hicimos la prueba en inglés le dimos un número de preguntas 30 más o menos y y bueno y entiendo las comparamos por gente que nos ha ayudado a hacer esto a ver si mejoraba o quedaba igual lo empeoraba las respuestas a los promes y vimos que en la mayoría de los casos en muchos casos mejoraba creo que algo así como el 30 40 por ciento depende de la notador mejoraba notoriamente cuando la respuesta era después de entrenar con el jamón y leitas pero también símos otra cosa que es en el momento y tenemos a ayudar en este proyecto de un grupo que nos la parte italiana y el proyecto también incluye español y portugués en este momento todavía no hemos llegado a esa tapa pero probamos con los primeros anotadores en italiano y y bueno y si bien el data set que tenemos el harmony data set es 100 por ciento inglés notamos que usando italiano el modelo incluso mejora también entonces esto fue una cosa muy interesante nosotros queríamos justamente una de las preguntas que queríamos contestar con este ejercicio queestamos haciendo es si va a haber alguna transferencia lingüística utilizando sólo en inglés y bueno en este momento podemos decir que sí pero bueno quiero hacer hincapié en esta parte de los valores no están confirmados y es una muestra pequeña o sea no quiero no quiero que esto quede ya como que es algo completamente probado pero bueno la primera impresión que nos da es que sí que hay una una transferencia de interlingüística porque si la alineación ecológica mejora entre 30 40 por ciento dependiendo de el anotador en inglés y en italiano entre 25 y 30 por ciento evidentemente hay una transferencia podrán ser 100 por ciento pero hay una transferencia ahora como podemos explicar esa transferencia creo que hay dos áreas una es que lingüísticamente porque hay por ejemplo palabras que son parecidas en él y especialmente como sabemos más que palabras en el world en bedding lo que hay son son tokens son partes de palabras pueden ser raíces de palabras que son exactamente iguales o muy parecidas en idiomas indoeuropeos como son el inglés y el italiano español entonces lingüísticamente tiene un sentido de que de que haya una mejora incluso cuando él solo en inglés el data se después la otra parte que puede explicar es computacionalmente porque el en bedding o sea ese espacio multidimensional donde tenemos todos los tokens una vez o donde supuestamente están todos los tokens una vez que se hace el entrenamiento ese es agnóstico con respecto al lenguaje porque fue entrenado con inglés y con otros lenguajes que gran mayoría es en inglés pero está todo mezclado en ese espacio es dimensional esa es una de las cosas que explica que bueno que no ente por más que estemos haciendo el data set en inglés el en bedding es agnóstico con respecto al lenguaje la otra puede ser porque hay métodos de regularización en tpo que fue la técnica que utilizamos para que no hacía lo que se llama el overfitting de que el modelo empiece a cambiar todo solamente para para poder hacer el trabajo el cual se le está entregando en mejor forma entonces esa regularización lo que hace es que no se aleje demasiado del original entonces para no alejarse demasiado probablemente las distancias vectoriales que hay entre entre los tokens en inglés y en italiano también se mantenga en alguna forma con esa regularización entonces ahora vamos un poco a lo que creemos que debería pasar y es que si esto es cierto que hay esa transferencia interlingüística también esto se debería extender sin duda las lenguas otras lenguas de romance como si lo hicimos en italiano esperamos lo mismo en español en portugués en valenciano en muchas otras lenguas romances e incluso indo europeas porque el inglés no es romance y sin embargo hay esa transferencia así que puede haber otras indo europeas que también se vean beneficiadas en la transferencia lingüística cuando usamos inglés no sin embargo cuando usamos las no indo europeas cuando pensamos en las no indo europeas como puede ser el yukera o el guaraní o lenguas que no tienen nada en común con las indo europeas que era ese es más bien proto europeo puede tener quizás pero difícilmente se vea reflejado en el en vez de o sea que en la parte lingüística no creemos que que funcione cuando utilicemos lenguajes que o idiomas que no son indo europeos pero la parte de computación al si debería mantener simplemente le quería dar esto que es interesante para lo que sigue porque una de las cosas que incluso fue una pregunta que creo quisieron en el taller si creo que fue el taller de manos que hicieron la pregunta de que alguien hizo un algo con un taita set en español y vio mejoras también en inglés en el modelo y bueno yo creo que puede pasar en lo mismo si nosotros tenemos un taita set ecológico en español no sólo va a afectar la parte española sino sin duda las o con mucha probabilidad mucha probabilidad de que pase también en todas las lenguas romances y quizás en otras eindro europeas también o sea inglés entonces es otro motivo paratener un muy buen taita set ecológico en español entonces ahora lo que les quisiera mostrar capaz que puede ver aquí directamente es el taita set que hemos estado utilizando en este momento que es parte del proyecto que llamamos harmony el proyecto consiste del taita set y bueno promocionado el discurso sostenible en eis el principal como de esto voy a compartir por un momento y ahora se ve ahora sí sí sí sí bien perdón pero de problemitas técnicas y ayudarte con algo bueno muchas gracias bueno acá el harmony de taita set que es el de valores ecológicos lo tenemos en hagan face es completamente opensource es abierto la licencia es creativo como no sé si a cualquiera lo puede usar y por supuesto que están más que invitados me gustaría que fuera usado en este proyecto del corpus de española pienso que hay mucha forma de utilizarlo entonces es un un taita set principalmente para finetuning por reforms del learning por dpo les voy a mostrar la versión de dpo de pio primero porque es es bien sencilla y está hecha para específicamente para hacer el el finetuning o el dpo e incluso los los 12 en las dos columnas se llaman las tres columnas exactamente igual como van a estar usadas en dpo el prompt de la columna chosen y la rejecta es un de un data set chico en términos de volumen son 2000 filas solamente 2000 entradas y pero ese es muy buena calidad que nosotros nos embramos mucho en eso y esto nos ha permitido estas pruebas de concepto de la que le he mostrado algunos casos por la forma que lo hicimos el el data set que lo vamos a ver en unos segundos entonces es muy sencillo en el sentido de que bueno tenemos una pregunta y bueno cual como ha sido contestada esa esa pregunta tenemos dos opciones y en lo que hicimos fue este es un lindo caso porque en eco lingüística como hablábamos hace unos momentos hay diferentes formas de analizar el discurso de la misma forma que lo que decía frano y de cómo analizar el discurso mediático que hay diferentes estructuras en algo así como 17 distintas en eco lingüística se hace algo parecido hay hay que depende del autor pero hay unas 9 10 diferentes estructuras cognitiva como se llaman en en eco lingüística para analizar los discursos y una de esas estructuras son las metáforas entonces acá por ejemplo en esta primera pregunta lo que estamos haciendo es pidiendo en un prompt es una metáfora sobre algo en este caso de los cruceros y los marcos cruceros a ver qué responde los modelos y elegido la mejor pero y bueno después a veces hacemos más de dos respuestas tenemos tres en general tres respuestas entonces las ponemos en pares por eso la misma pregunta parece tres veces son las tres combinaciones de esas respuestas y entonces le voy a mostrar un poco más este es el data set mejor para usar si van a usar de de peor porque ese directamente ya tiene los las columnas como deben estar formateadas y todo eso pero si vamos al data set original este es más completo es donde estamos juntando los datos donde estamos el que estamos manteniendo un montón de metade de data también para saber de dónde están saliendo sus datos y cómo y tener una taxonomía un poco como lo que hablaba Fran también en términos de la taxonomía de lo que estamos tratando de mejorar desde el punto de vista ecológico hay información acá del data set que voy a leer toda pero por ejemplo una de las cosas que hacemos en términos de taxonomía es que separamos los los distintos problemas ecológicos pues a veces un problema puede ser el clima otro puede ser la polución otro puede ser el matrato animal hay muchos problemas ecológicos y lo que hicimos fue tomar los 17 los 17 los objetivos de desarrollo sostenible de la ONU y bueno hicimos una clasificación a categorización de cómo se manifiestan en términos ecológicos y bueno y al final los redujimos a cinco categorías para hacerlo más sencillo esas cinco categorías están en este data set las cinco categorías están separadas en 1 hot en code por cada una de esas categorías porquehay casos que el mismo pronto o la respuesta puede estar en más de una categoría el data set también lo separamos por lenguaje es otra de las dimensiones que tiene en este momento el lenguaje y localización que es interesante este momento van a ser estas entradas son todas en gb porque es inglés británico pero es una buena oportunidad para extender este data set con español de distintas localidades o incluso otras lenguajes que los idiomas que también se estén hablando en el mismo país que el lenguaje españoles tras lenguas oficiales hay muchos datos de cada prompt y y como fue creado no vamos a entrar en todos ellos pero una cosa que quisiera comentar que es muy importante es cómo creamos este data set porque como sabemos el una de las partes más difíciles de crear un data set de preferencia es el que precisamos de feedback humano entonces en general lo que se hace en reinforcement learning es que bueno primero se hace prompt después eso se completa por distintos modelos y los humanos están en su versión de cual es mejor o peor y de ahí sale el data set de preferencia y después eso se usa en reinforcement learning nosotros lo que hicimos fue un pequeño cambio como nosotros sabemos cuál es la la preferencia por usando rol en roles lo que hicimos fue instruimos a gpt for en la mayoría de los casos aunque también usamos bar y usamos el ama también pero en la mayoría de son gpt lo instruimos para hacer para pensar como un necolinguist digamos le hicimos el system prompt diciendo en el lugar del del system prompt común que dice bueno eres una asistente que que ayuda mucho bueno nosotros le dijimos eres un necolinguista que se preocupa mucho por el ambiente digamos un poquito más largo en esa instrucción al sistema pero básicamente es eso entonces le hicimos completar una serie de prompts que creamos con la ayuda de de de colinguistas en general y gente que aportó al proyecto muchos de contribuyentes y esos promos los hicimos contestar usando roles pasamos el prompt por la ipi salga gpt for diciéndole gpt 4 diciéndole eres un necolinguista contestan estos prompts y bueno nos contestaba después lo pusimos en una forma adversaria digamos de adversario dijimos bueno ahora eres una persona que no tiene noción de los problemas en ambientales contestan los estos prompts entonces haciendo eso después también hicimos algo ambivalente algo que hicimos un rol en el que era una persona que no no sabía mucho no tenía mucho interés en el ambiente que era un poco agnóstico entonces creamos esos tres roles digamos entonces esos qué ventaja nos dio que ya sabíamos cuál era la la la la respuesta preferida o la o la choosing y rejector como se como tenemos en el data set eso nos dio una gran ventaja porque no tuvimos que pasar por toda la etapa de feedback porque en realidad ya ya lo estábamos haciendo antes ese feedback si se quiere lo único que hicimos fue lo pasamos por humana por verificación humana o sea yo mismo y otros personas que contribuyeron con esto tratamos de validar de que realmente el prompt que estaba señalada el respuesta que estaba señalada como más alineada ecológicamente realmente lo era y si lo vimos que en el no 29 por ciento de los casos era ese lo que pasaba todavía están en progreso porque a veces descubrimos algunas respuestas que podrían estar un poco mejor o que eso está siempre en constante progreso entonces bueno nada esto es principal principalmente lo que estamos haciendo en este proyecto y es totalmente abierto y bueno como les decía pienso que hay pueden salir muchas cosas interesantes de aquí en términos del jacatón y más allá de eso yo creo que podemos ir mucho más que el jacatón y que debemos o sea yo lo siento como yo mismo como una obligación el tema del cuidado ecológico como son un momento de la humanidad como decía al principio aunque no tenemos otra opción que hacer lo que sea para para favorecer la sostenibilidad en todo el discurso de la AI porque como demostramos omostramos al principio es el alcance que tiene ese también nunca visto antes en la humanidad entonces creo que tenemos una gran oportunidad aquí de mejorar esa mala relación si se quiere que hemos tenido con la naturaleza a través de nuestra historia entonces los invito a participar a usar este data set acá no hay nada propietario esto estos open source pueden bajar usando directamente usando los data el data load from the high-end face a la instrucción también hay un algunos unas partes de código que no mucho pero pero pueden encontrar en kit hape cosas que hicimos durante las pruebas entonces las opciones aquí son varias se puede usar este data set como complementario cualquier proyecto que estén haciendo para hacerlo ecológicamente mejor aunque sea sólo por la transferencia lingüística que hay sabemos que nos parece por lo que vimos en italiano que si lo usamos en español va a mejorar igual de alguna forma la parte la parte ecológica pero idealmente si el proyecto realmente quiere ir más allá en lo ecológico sería ideal o bien traducir todos estos prom y y las respuestas a través de un espacio en arquila o manualmente usando diéleos o lo que sea o mejor aún sería extender este data set y agregar los prontes en español y bueno también pasarlos por algún espacio donde podamos dar feedback o usar esta esta misma metodología que usamos aquí de de usar instrucciones y roles para para crear el data set pero en lugar de hacerlo en inglés es a lo en español sea que pienso que pueda haber muchas cosas por aquí lo otro es usarlo para como parte del leaderboard que queremos crear y ver si podemos tener en métricas ecológicas y sostenibles en los modelos que no sólo miramos los modelos por lo bien que que razonan y no sé por lo bien que hacen código y por distintas otras benchmark que son muy importantes y realmente determinan que tan bueno es un modelo pero sino también que esto sea una parte fundamental por decir no quisiera un modelo que razonen mejor que nadie pero que sea completamente e ignore completamente el ambiente entonces bueno nada les invito a usar esto y y bueno cualquier cosa que yo pudiera ayudar con mucho gusto pueden encontrar mi datos acá mismo en haenfei si estoy a disposición de esto y bueno nada más agradecerle que me hayan escuchado y poder poner un granito de arena por por la ecología y nuestro medio ambiente tan dañado que bien la verdad que me ha encantado las dos más me ha gustado de hecho también me gustó mucho el comienzo la reflexión sobre el sobre el poder del lenguaje y porque también tenemos que impulsar desde ahí todos los valores psicológicos no había pensado bueno bueno obviamente sí porque la youtube muesta de charla pero hasta entonces nunca se me hubiera ocurrido que podía tener tanto impacto desde este punto de vista o sea que súper interesante además me han cantado que se me encien a todas las chinos anteriores a que se está súper súper atento así sí las vi todas me encantaron todas la verdad y aparte me ha gustado mucho el proceso porque las primeras que hubo fue como en esa introducción a cómo hacer el entrenamiento y bueno y hoy estamos hacia la parte de la parte de la parte ética o sea que muy bien lo verdad que me encanta cómo está haciendo este acatón muchas gracias yo voy a retomar bueno todos los bueno bueno este este vídeo lo voy a compartir también con con los nuevos equipos porque hay gente que todavía se está se está uniendo ahora y está buscando proyectos y días de proyectos entonces a ver si alguien se anima a tomar ese relevo que has dado no a estandar este data set que tenéis en inglés y a ver si podemos crear también instrucciones en español y que te iba a decir también podría ser interesante mirar desde la parte del líder por lo que estabas diciendo de intentar evaluar cómo bueno si realmente las respuestas de nuestros modelos del lenguaje son también o conscientes digamos si vamos a una vuelta bueno muchas gracias entonces genial muchasgracias también Jorge espero que a todo el mundo haya gustado damos por finalizada la el primer día de que nos deja catón con cuatro 3 que nos la vía no la incluyó tres que no es súper interesantes y nada seguiremos desarrollando proyectos y con más que nos también la semana que viene muchas gracias Jorge y también a todo el - ¡Suscríbete! - ¡Suscríbete! prawdaors.
Jorge Vallego
Taller + AMA: Entrenamiento de LLMs, Alejandro Vaca @LenguajeNaturalAI | #Somos600M
Ahora todo el mundo ya llevamos dos semanas de los hackathon somos 600M y estamos viendo proyectos súper interesantes y seguimos avanzando. Como sabéis el objetivo de esta iniciativa es crear recursos abiertos y de calidad de crecimiento de la lenguaje natural en español y lenguas oficiales que representen la diversidad de los 600 millones de personas que hablamos español. Hoy es lunes o sea que nos toca a taller aplicado y de hecho ahora mismo le voy a dar paso a Alejandro pero antes tengo una noticia y es que resulta que nos han contactado de Latinx en IAI para invitarnos a mandar los proyectos de hackathon o de la comunidad más bien en general a su workshop de la conferencia del NACL. Entonces lo hicimos ya en la edición anterior y se leó genial de hecho bueno aquí a Alejandro fue a presentar su proyecto y bueno creo que es súper contentos fue un poco estresante me comentaba porque al final el plazo son cortitos y bueno es una comentadora del plazo pero bueno creo que vale mucho la pena así que os animo a presentar a vuestros proyectos. Como os comentaba el plazo para presentar los proyectos es el 29 de marzo vale 11 días quedan entonces os animamos a presentar los proyectos no queremos limitar los recursos para bueno para que podáis llegar a tiempo mejorarlos en vuestros proyectos y tal entonces vamos a aumentar os vamos a dejar a utilizar los proyectos a los recursos durante estos cinco días adicionales y tampoco queremos dejar en desventaja el resto de equipos que nos quieran presentar los proyectos entonces bueno básicamente vamos a extender la fecha del hackathon hasta el 29 de marzo para que todo el mundo pueda seguir disfrutando de los recursos y podáis enviar los recursos súper guays obviamente si termináis antes pues también perfecto y pues también lo último de decir que ya que estendemos el hackathon casi unas semanas pues también significa que volvemos a acertar nuevos proyectos porque tenéis 10 días que es casi el tiempo suficiente para presentar un proyecto de nuevo entonces bueno si alguien se ha quedado con la espinita que sepáis que os podéis unir a las lo tengo apuntado a 575 personas que ya se han unido a nuestra iniciativa de somos 600 m entonces bueno vamos a presentar a nuestro ponente de hoy que es alejandro vaca él es ganador de varios premios como el primer premio del kajamar university hack 2020 el premio al mejor data scientist del hackathon de spain y a 2021 gracias a sus dos primeros premios y un tercer premio y también lideró el equipo ganador del hackathon somos en el p 2022 con el proyecto biomedia que también presentó el ncl 2022 es lo que os comentaba justo ahora obteniendo el primer premio a mejor presentación de post term además ha liderado el desarrollo del lm senelí desde el 2019 con el desarrollo de los modelos de compresión de texto rogoberta rogoberta 2 y el modelo de chat rigo chat además recientemente ha montado su propia empresa lenguaje natural punto y ahí y de hecho bueno también para los equipos que ganan en el hackathon vais a tener acceso exclusivamente a la no exclusiva pero de los primeros accesos a los a sus cursos entonces bueno para el día de hoy la idea es que os va a mostrar un notebook con diversos trucos y tal para entrenar nuestros lm y después estará a vuestra disposición para responder todas las dudas entonces las podéis ir escribiendo en el chat y pues bueno al final del taller o se las voy leyendo vale pues nada alejando todo tuyo muchas gracias maria como siempre me me pones por las nudes ahora yo para bajarlo para bajarlo todo bueno bueno buenos días buenas tardes o buenas noches a todos dependiendo de en qué parte del mundo estáis escuchando a mí la verdad es que me gusta pronunciarlo lenguaje natural que suena como un poquito más un poquito más español no bueno como ya ha dicho maría yo os voy a hablar un poco del entrenamiento de modelos de lenguaje sobre todo vamos a enfocar en el entrenamiento demodelos de instrucciones y modelos de chat o conversacionales de acuerdo entonces sin más dilación y con este transformer entrenando entrenando con libros por cierto por si no os habéis dado cuenta no son no son discos de pesas vamos a primero contar un poquito qué es lo que vamos a ver en el día de hoy vamos a ver primero pues una base teórica muy cortita será muy suave que además es lunes y luego vamos a verlo ya en formato código vale os dejo por aquí también el código QR tanto de mil y que vin como de lenguaje natural punto hay vale por si queréis entrar ahí a cotillar un poquito no os cuento qué regalos hay también en la charla de hoy ya que aparte de lo que ha contado maría que es que los tres primeros equipos del jacatón tendrán acceso completamente gratuito al curso online experto en procesamiento de lenguaje natural del lenguaje natural punto hay para todos los participantes del día de hoy habrá un descuento del 60 por ciento en dicho curso vale o sea que bueno para los que os quedéis con la espinita y con las ganas de conocer un poquito más de este mundo tan maravilloso del procesamiento del lenguaje natural pues a ellos lo dejo y también se sorteará una mentoría privada de 30 minutos conmigo en la que podréis pues utilizarme para intentar mejorar vuestros proyectos y poder ver pues un poquito más en detalle algunos aspectos de los mismos que veáis que queréis mejorar vale quedaros hasta el final y os cuento cómo cómo canjear estos estos pequeños regalos que he preparado para el día de hoy que así se hace un poquito menos duro el lunes entonces vamos a ver primero qué es lo que vamos a aprender hoy en primer lugar veremos cómo entrenar eficientemente modelos de lenguaje para instrucciones o chat vale entonces veremos los míticos lora culora y este tipo de métodos también veremos cómo procesar estos chats adecuadamente utilizando las herramientas de hagan face vale y es que es importante que estos chats sigan un formato muy concreto y que tengamos este template o esta plantilla integrado directamente en nuestros modelos vale esto es algo que tendréis que tener en cuenta de cara a esos modelos que estéis entrenando para el hackathon pero aquellos que estáis en esta charla sin participar en el hackathon también podréis seguro sacar mucho provecho de todos esos trucos no además veremos pues algunos detalles con los que podemos mejorar al mítico lora o culora vale veremos alguna cosita nueva que ha ido saliendo para mejorar estos métodos y en último lugar pues veremos cómo utilizar autotransformers una librería de lenguaje natural punto hay para integrar pues todo esto de forma sencilla y sin esfuerzo que primero lo veremos con todo con librerías de hagan face vale dejaremos esto para la para la última parte entonces la tabla de contenidos sería más o menos esta vale vamos a empezar haciendo un repaso de lora veremos luego cómo se integra con culora luego veremos rank estabilized lora o sea un lora con el ranc con el rango estabilizado y veremos también el método neftune y long is more for alignment que es un paper que ha salido a hacer relativamente poco y en el que bueno pues gente como lego y tu tal ha podido comprobar la efectividad del del mismo vale entonces primero veremos cómo hacer lora culora y rs lora todo con librerías de hagan face y luego para el último paso veremos cómo hacer todo eso mismo a la vez más neftune y esto que decía tunstal del long is more con la librería autotransformers entonces esa primera parte de la práctica vamos a ver que tenemos muchas librerías vale vamos a trabajar con la librería transformers vamos a trabajar con la librería peft para la parte del lora vamos a trabajar con la librería trl también vale para la parte del trainer y demás y también con la integración aquí tim deadmars se enfadaría un poquito con mío porque puesto luego de hagan face y realmente bits and bytes no es una librería de hagan face es una librería de tim deadmars pero bueno está completamente integrado con las librerías de haganface vale y forma parte al final pues de ese ecosistema y luego veremos pues cómo puede hacerse todo esto de una forma un poquito más sencilla con algo menos de dolor como digo con con la librería autotransformers con el fin de que podáis también pues entrenar múltiples modelos en secuencial y en definitiva que la máquina haga haga el trabajo y nosotros pues podamos dedicarnos más a la parte de los datos que al final es lo más importante y es la iniciativa principal del del hack atoni donde debemos dedicar la mayor parte de los recursos no pues vamos a empezar haciendo un pequeño repaso del del lora el método lora y lo rancadápte es básicamente una de las gracias que tiene es que no modificamos en sí mismo los pesos del modelo original y esto se hace mediante matrices de bajo rango como estas que podemos ver aquí de acuerdo entonces nosotros dejamos los pesos del modelo original fijos congelados no los adaptamos no los vamos a modificar en absoluto y lo que vamos a hacer es sumarles a esos pesos el resultado de la multiplicación de unas matrices de bajo rango que son a y b esto se hace ajustándolo con un parámetro que es este alfa partido de r si alguno ha visto ha bajado alguna vez con la librería peft sabéis que aparte de pasarle el mitico rango que suele ir de 4 a 64 normalmente aunque se puede subir un cruz un poco más aparte de eso normalmente le pasamos también el parámetro alfa de acuerdo y esto lo cuento este detalle para que luego entendamos bien en qué consiste eso del rancé estabiláis lora vale entonces como vemos le sumamos a esa matriz de pesos original v doble el resultado multiplicar las matrices b y a multiplicadas por ese factor de alfa partido de r ya nos podemos empezar a imaginar viendo esto que si r es muy grande este factor de aquí se puede volver demasiado pequeño vale pues bueno vamos vamos a ver luego cómo puede cómo puede afectar eso vale una de las gracias que tiene el método lora es que al no modificar los pesos del modelo original vamos a evitar el catastrófic porgetting que es uno de los problemas típicos que puede haber al hacer el ajuste fino de los modelos cuando utilizamos un learning rate demasiado alto o no le metemos un su suficientes pasos de warm up o simplemente los datos que elegimos están muy fuera de la distribución de los datos de la distribución de los datos con los que originalmente se entrenó el modelo podemos acabar teniendo una pérdida catastrófica de conocimiento y eso en el caso de modelos como mistral o llama pues es es algo dramático porque acabamos teniendo una situación en la que perdemos un montón de conocimiento súper útil que se había generado durante el preentrenamiento del mismo no es una de las gracias de esto es que podemos añadir nuevas capacidades al modelo sin perder las capacidades del modelo original conservando las mismas además como podemos ver en los gráficos de abajo en los que se extraen por cierto del paper original de lora si comparamos lo que es hacer lora contra el finet y un incompleto pues vemos que tienen unos resultados prácticamente similares no incluso mejores en algunos casos y esto tiene que ver también con que es muy difícil encontrar ese equilibrio entre cuál es el batch y si el learning rate correcto de utilizar a la hora de hacer finet y uning para que generalice bien a una nueva tarea no cuando hacemos ese finet y uning de todos los pesos al completo ese digamos que la receta que necesitamos encontrar no es tan sencilla cuando utilizamos cuando utilizamos el finet completo como cuando utilizamos lora no que al estar entrenando un conjunto de pesos menor pues digamos que es bastante más digamos que es bastante más sencillo luego viene el método culora que juega con el hecho de que podemos utilizar los modelos cuantizados en este caso se van hasta la cuantización a cuatro bits incluso y no perdemos demasiado de la representación original de los modelos entonces al no perder digamos demasiado del conocimiento que tienen esos modelos porpasarlos de 16 o de 32 bits a 4 bits en este caso podemos permitirnos lo siguiente ya que yo no voy a actualizar los pesos del modelo original pues bueno voy a mantenerlos aparte de congelados cuantizados a cuatro bits solo vale que como veis en esta representación de aquí pues eso reduce muchísimo el tamaño del modelo y aparte voy a aplicar lora sobre los sobre las esas matrices no entonces aparte de esta innovación de sobre lora en la que utilizan los modelos cuantizados se introducen varias modificaciones también en primer lugar se introduce el 4 bit normal flow que es un nuevo tipo de flow de cuatro bits que produce mejores resultados que los enteros de cuatro bits y los flows de cuatro bits habituales y esto lo podéis ver en los gráficos de aquí abajo cuando comparan lo que es el culora completo contra la representación en 16 bits veis que no se pierde rendimiento en absoluto no además aplican una doble cuantización en la que se cuantizan también las constantes de cuantización y esto reduce aún más el tamaño del modelo de nuevo en el gráfico de la derecha podéis ver que esto no reduce lo que es el performance el rendimiento del modelo no baja por el hecho de hacer esa doble cuantización y además introducen una nueva mejora añadida que son los optimizadores paginados los page optimizers que lo que producen es que se eviten los picos de memoria la hacer gradient checkpointing con consecuencias muy largas vale que funcionan de esta forma que podemos ver en la derecha transmitiendo los gradientes de la gpu a la cpu vale entonces esto nos permite que todos desde casa podamos entrenar modelos de lenguaje gigantes porque si nos vamos hace un año y medio un modelo de 7 billones de parámetros es un modelo gigante aunque ahora lo comparemos con otros como groc que salió ayer y nos parezca muy pequeñito en realidad estamos hablando de modelos muy grandes y el hecho de que esto lo podamos entrenar en gpus de gaming como la que puede tener mucha gente en su casa pues es algo verdaderamente fascinante y es lo que ha hecho también que se empuje mucho la innovación en todo este campo entonces clara es una técnica fundamental de cara a que podáis entrenar modelos suficientemente grandes con los datos que habéis generado para el para el jacatón acuerdo está es una técnica que no puede faltar por supuesto pero es que además viene más y es que hace unos meses surgió esto del rango estabilá es lora y es que ocurría lo siguiente con lora y incluso con culora observábamos que cuando el rango de esa matriz que veíamos antes vuelvo a enseñarla cuando este rango era demasiado grande lo que ocurría es que no estábamos aprovechando ese rango tan grande o sea por el hecho de hacer más grande esa matriz que en principio debería darle al modelo mayor capacidad de captar las visitudes de ese dominio de esa tarea en concreto no estábamos pudiendo aprovecharlo y no se traducía en un mejor rendimiento ni en un mejor aprendizaje y esto lo podéis ver en este gráfico de aquí en la que en el que como veis de hecho empeora el rendimiento del modelo cuando le subimos el rango sobre todo por encima de 128 de acuerdo cuando le subimos el rango por encima de ese número ya vemos que no conseguimos mejoras de hecho empeora el método y esto tiene que ver con las explosiones del gradiente o los gradientes desvanecientes y esto ocurre por ese término del que hablábamos antes que por eso lo he enseñado ese término de ajuste que tenemos aquí de gamma su r que es igual a alfa partido de re vale cuando ese término se sigue la la formulación de la hora ese término se puede volver demasiado pequeño y eso nos lleva a problemas y entonces estos tipos demuestran que cuando eso en lugar de seguir esa forma tiene una forma más del tipo 1 partido de la raíz cuadrada dr aquello es bastante más estable y de hecho como podemos ver en los gráficos de la derecha cuando aplicamos rancas tabela islora si que vemos que aumentar el rango hastalos 2048 como sería esperable pues sí que produce mejoras significativas ya que le estamos dando más margen al modelo más pesos al modelo para poder ajustarse para poder adaptarse a ese dominio o a esa tarea específica de acuerdo entonces esto simplemente a la hora de implementarlo simplemente lo aplicamos así vale o sea simplemente partimos ese parámetro alfa que le introducimos al que le introducimos al peft lo partimos de la raíz cuadrada dr y en peft esto ya está implementado y simplemente tendremos que pasar un parámetro us rslora igual a true aquí podemos ver algunos resultados sobre el empty bench vale y es que veíamos que cuando aplicábamos lora con un rango de 16 los resultados eran prácticamente iguales que cuando aplicábamos un rango de 256 que en realidad luego a nivel computacional es muchísimo más costoso de acuerdo se estamos gastando recursos por decirlo de alguna manera lo tonto vale porque no estamos traduciendo ese mayor gasto en recursos en un mejor rendimiento del modelo sin embargo cuando aplicamos rslora con el rango de 256 si que vemos una mejora bastante significativa vale tanto en el primer turno como en el segundo turno y como vemos aquí de media pues la mejora ya es bastante notable entonces vamos a ver ahora cómo aplicar esto con las librerías de having face voy a enseñaros para yo un notebook como todas las dependencias nos vienen con autotransformers simplemente haciendo pip install autotransformers ya vamos a instalar peft bits and bytes transformers data sets y trl creo que no me dejo ninguna ninguna librería que son las librerías que vamos a utilizar para esto vale dejadme un segundo que cambie el kernel aquí ya lo tengo yo instalado vale entonces hacemos el importe las librerías y lo primero con lo que nos encontramos es con la plantilla de chat diréis que es esto del chat template que es esta string tan rara que nos está poniendo este señor aquí por favor es lunes basta de brome bueno pues esta string tan rara es lenguaje y ya que es un lenguaje para definir plantillas esta plantilla lo que define es un bucle sobre una serie de mensajes en el que en función del rol que tengamos en ese en cada uno de los mensajes pues vamos a formatear la string de una manera vale entonces cuando viene un rol user vamos a coger el contenido y le vamos a hacer un bocadillo con un tag de user y un cierre del tag de user asimismo cuando nos viene un mensaje del sistema que sería el mensaje del sistema de nuestro chatbot o de nuestro modelo instruccional le vamos a hacer también un wrapper con ese hashtag de sistema y el cierre del sistema y para la asista vamos a añadir simplemente el cierre vale y vamos a asumir que la asista viene siempre después del user entonces el cierre del user va a ser en realidad el inicio de la asista con lo cual aquí podemos meter simplemente el cierre y muy importante le añadimos también el token de final de secuencia y esto es súper importante porque es lo que va a favorecer que este asista no se quede hablando eternamente sino que sepa más o menos cuando parar que esté acostumbrado a generar ese token de final de secuencia y que por lo tanto cuando luego lo vayamos a poner en producción o vayamos a poner a probar nuestro modelo este modelo nos dé unas respuestas en las que oye pues sepa cuando cuando callarse no que eso también también es importante no solamente saber qué decir sino también saber en qué momento terminar de hablar y adicionalmente como vamos a utilizar contextos adicionales y esto también pues os sirve si alguno estáis utilizando contextos adicionales en vuestra construcción del corpus si tenemos un input en el rol input pues le vamos a hacer también un bocadillo con esta señal esta marca de abrir el input y este cierre del vale entonces ahora vamos a ver en un ratito cómo aplicamos este chat template vale a través del toquenizador a todos nuestros chat de momento ejecutamos y vamos ahora a hacer la carga del data set he decidido a utilizar el data set del jacatón del año pasado somos en el pque fue una traducción del alpaca pues se limpió luego con con ayuda de argila estoy viendo preguntas que compartís es el colab que vale el colab lo tenéis os lo voy a ir pasando vale os paso el link vale porque esto lo tengo subido está público dadme medio segundo y lo voy a subir por aquí lo voy a pasar por el chat para que lo tengáis todos disponible y podáis seguirlo en en git hub digo en google colab disculpad que hablar y a la vez estar buscando esto no se me cortan los circuitos vale a ver lo tengo casi vale voy a copiaros el link por aquí por el chat medio segundín que me pide autenticarme con la cuenta de youtube esto pues cosas del cosas del directo vale y así podéis seguirlo mientras lo estoy haciendo yo que seguro que es mucho más útil para para todos ya me está dejando entrar vale publico el comentario por aquí vale ahí tenéis el link no me ha dejado comentarlo no sé si lo puede pasar marías lo voy a dejar aquí por el chat privado vale así cuando pueda lo comparte vale entonces volvemos a nuestro código después de cargar el el data set vamos a generar una función para mapear este data set al formato que esperamos vale al formato deseado entonces primero le vamos a añadir el sistema el mensaje del sistema y esto se añade los chat van a ser una lista vale o sea cada chat va a ser una lista con diccionarios con dos llaves rol y content en primer lugar tendremos que meter el sistema en este caso pues le decimos que eres un asistente que resuelve las instrucciones del usuario si se proporciona contexto adicional utiliza esa información para completar la instrucción lo pongo un poquito más grande para que lo veáis todos bien en segundo lugar vamos a añadir el input si éste existe porque hay algunas instancias del data set en las que no tenemos un contexto adicional si el input no es non e y no es una cadena vacía lo añadimos de acuerdo entonces añadimos un diccionario que sea el rol input y luego el contenido y luego le hacemos una extenta a esa lista para añadirle la intervención tanto del usuario con el rol user como la de la sista de acuerdo y esto nos va a dejar luego una columna messages que va a tener una lista como ésta que hemos creado a lo largo de a lo largo de esta función entonces esta función la podemos aplicar a todos los elementos del data set con el método map la aplicamos que no había ejecutado esta celada se está cargando alejandro si una cosa el enlace de hijab si que va pero el colab no lo puedes abrir en colab y compartir el colab porque no o sea tampoco creo que la gente asistentes puedan abrirlo no se abre esto no a ver vale a ver bueno de igual lo abro desde aquí si o sea si compartes la url y ya la compartes no me deja mi abrirlo tampoco desde el cola y desde desde cola puedes dejar puedo quitar de pantalla si les llevamos todos estos colab espera lo subo si no dame un segundo voy a abrir el google cola directamente y lo subo como un notebook si lo que no funciona es el enlace luego lo relleno igual mítico de que lo haces en cola y lo guardas y después lo modificas en githab o algo así y al final no están no sé algo pasó ahí mientras tanto si no es mucho para abrir tu cerebro o cuando quitarlo buscando cosas y respondiendo si quieres te preguntan cuáles son los requisitos mínimos para correr en local esto corre con 15 gigas esto que vamos a ver hoy o sea yo lo diseñé para que corra en una gpu de hasta 15 gigas como las que nos dan en google cola estoy copiando el enlace al al cola vale lo paso a ver si me deja ponerlo aquí en los comentarios no me deja comentar no me deja ponerlo creo que es stream yard piensa que estoy haciendo algo malo vale te lo pasa a ti y mirá si lo puedes poner si vale perfecto ya sí que ahora sí entonces esto debería debería dejarlo ejecutar en google colapsing problema perfecto yo por la mayor velocidad en el en el seminario lo voy a hacer aquí en local pero vamos corre igual y revise en todo momento que la gpu no pasará de no pasará de los de los 15 gigas de uso de memoria vale si alguno tenéis una gpu más potente o bueno me comentaba maría quelas gpu del jacatón tienen hasta 24 gigas como está que estoy utilizando yo ahora en esas podéis subirle ahora lo veremos donde el tamaño de secuencia vale si si queréis podéis subirle el tamaño de secuencia a 8192 y probablemente no haya ningún problema eso sí armaros un poquito más de paciencia porque tardará tardará un poco más bueno entonces vemos que con el método más le podemos llamar a este proceso al paca vale y ya nos va a dejar un data set que tiene esta pinta que tiene esta pinta vale tenemos aquí los meses 10 entonces si yo busco pues el primer elemento de ese data set y vemos los meses tienen esta pinta vale tenemos una lista que está formada por diccionarios vale pues por ejemplo escribió una reseña de libro los juegos del amno y aquí pues tenemos lo que dice el asistente entonces ahora vamos a la definición de los argumentos de entrenamiento aquí para que esto corra tranquilamente en google colab le puse un batch size de 1 vale pero con un gradient accumulation steps de 16 esto es importante para que tengamos un batch size decente vale porque si entrenamos de uno en uno no vamos a aprender mucho de todas formas cuando entrenamos como de con lora o con culora podemos utilizar batch size más bajos que los que solemos utilizar cuando hacemos un finciunin completo con lo cual con un batch size entre 4 y 16 normalmente funciona bien tampoco es fácil hacer funcionar bien a estos métodos de lora o estos métodos de culora con batch sizes por encima de 16 vale cuando subimos de los 16 cuesta un poquito más hacerlo aprender le metemos un pequeño warm up radio también el learning rate lo cogemos directamente del paper de culora vale este es el rango de learning rates que se suelen utilizar cuando entrenamos loras están en el orden del m - 4 entonces en función de si el modelo es más grande más pequeño pues podremos utilizar un batch en un learning rate un poquito más grande o más pequeño si utilizamos modelos por encima de los 7 billones de parámetros o mejor dicho por encima de los 13 normalmente pues querremos bajar un poquito este le re en ré y le pondremos a lo mejor 1 de -4 con este modelo tan pequeñito en realidad podríamos ponerle 13 - 4 y iría bastante bien también vale o sea ahí luego pues la gracia es experimentar también con estos valores y también para eso está el jacatón no para que para que podáis experimentar entonces luego le ponemos un scheduler constante vale esto también es otra diferencia con lo que es el típico fine tuning en el que solemos tener un scheduler lineal de cayente aquí normalmente mantenemos el learning rate constante a lo largo del entrenamiento vale luego pues tenemos aquí otros parámetros como el max gran norm a 0 con 3 que suele funcionar bastante bien para favorecer también que no haya olvido catastrófico vale esto también ayuda muchos de estos parámetros están sacados del trabajo de guanaco y de otros trabajos que ha habido en los últimos meses con modelos de tipo culóra vale que funcionan bastante bien luego vemos que tenemos este optimizador paginado de adam vale ya hemos visto antes que el método culora trabaja con optimizadores paginados ya está integrado directamente en transformers utilizamos gradient checkpointing porque si no de otra manera probablemente sí vamos a tener problemas de memoria sobre todo en en google cola y luego pues tenemos otros parámetros como cada cuántos steps queremos guardarlo y cada cuántos steps queremos evaluar al modelo vale yo en mi caso aquí también tengo puesto bf 16 a true vale pero esto sólo vale en arquitectura san pere con lo cual cuando estéis utilizando google colab esto habrá que cambiarlo por fp 16 igual a tru vale entonces vamos a definir los parámetros los argumentos del entrenamiento y ahora vamos a cargar el toquenizador vamos a cargar directamente el modelo de gema 2b utilizamos un tamaño máximo de secuencia de 4096 de nuevo si estáis utilizando gpu de 24 gigas podéis subir esto un poquito yprobablemente con 8192 todavía os quepa esto también depende mucho del vuestro data set si en vuestro data set no tenéis datos que vayan a llegar a los 4096 bueno pues esto no tiene no tiene mucho efecto vale pues cargamos el toquenizador le pasamos toquen igual a tru si estáis en google colab o en un entorno remoto por favor acordaros de hacer hagan face la login de acuerdo la hacemos hagan face la login para pasarle nuestro toquen de hagan feis ya que los modelos gema nos piden autorización vale para poder acceder a ellos el acceso es gratuito y está abierto a todo el mundo pero hay que pedirles permiso primero como ocurría al principio creo que ya no con los modelos de llama 2 vale entonces bueno no os olvidéis de hacer esto porque si no os va a dar un error en algún en algún sitio luego cosas importantes hay que añadirle el toquen especial de pade vale esto es súper importante también porque no queremos que el toquen de pade y el de fin de secuencia sean el mismo esa es una mala práctica de cara a entrenar modelos para instrucciones vale esto también es importante que lo tengamos en cuenta y aquí es donde viene el chat template esa string tan fea que habíamos definido antes la vamos a meter en este apartado vale simplemente toquen aizer punto chat template es igual a chat template luego veremos cómo aplicarlo ya veréis que está súper impegado esto en hagan feis vamos a ejecutar vaya antes lo digo voy a hacer el hagan feis el a login esto es lo que pasa por borrar la caché vale entonces le pego mi toquen y esto nos va a cargar el toquenizador de acuerdo entonces ahora necesitamos definir una función de formateo del chat y esta función lo único que va a hacer es para cada uno de esos mensajes que teníamos antes o sea para cada una de esas listas que tienen los mensajes en ese formato de diccionarios vamos a hacer un aplica template y simplemente utilizándose esa plantilla de ginga que hemos definido antes ya esto nos va a dejar los mensajes en un formato perfecto para el modelo todos en el mismo formato vale es muy importante luego que esto lo utilicemos también en inferencia ya que si no vamos a enseñar al modelo con un tipo de chat y luego le vamos a pedir que funcione con otro tipo de chat si esto no va a ser posible esto es para evitar esa práctica tan horrible de crear funciones que pegan strings y que dentro de una string luego le metes el mensaje del usuario y tal eso es una malísima práctica entonces para evitar todo esto la gente de hagan feis muy amablemente pues han introducido este tema de los chat templates vale que nos ayuda muchísimo y nos facilita muchísimo la vida aquí lo vamos a poner con toquen a isa false porque es lo que espera el trainer de sct vale de la librería terriere y simplemente ya lo que vamos a devolver en este format chat es textos completos vale vamos a devolver una lista de textos entonces metemos esto aquí vamos a ahora definir el lora aquí vamos a definirle un rango bastante alto este o este valor de nuevo va a depender mucho de los recursos que tengamos si tenemos a nuestra mano una gpu pues eso de 24 gigas como estas que tenéis al alcance para el jacatón podéis probar incluso con un valor un poquito más alto mientras mantengáis el tamaño de secuencia en 4.096 y vais a ver que utilizando el reselora esto os va a ofrecer algunas ventajas vale es muy importante utilizar el reselora porque si no nos sirve de nada utilizar este 64 aquí podemos simplemente utilizar 16 y nos va a salir más a cuenta luego definimos el alfa de 32 que es un valor que suele funcionar bien en líneas generales también una cosa que se ve en el paper de culora es que debemos aplicar lora en todas las capas lineales y esto es un poco para compensar esa cuantización del modelo mientras que en el paper del hora solamente se aplicaba esa esa proyección algunas de las capas lineales como era en la matriz q y k en este caso lo vamos a aplicar a todas las capas lineales del modelo vale tanto a las proyecciones up and down y a todas las capas lineales entonces estosimplemente en lora config simplemente tenemos que definirlo como online y vamos a definir un dropout de 010 como una rule of thumb tenemos aquí lo dejo para que lo tengáis que normalmente un valor de 0 con 1 para los modelos de menos de 13 billones de parámetros funciona bien y que si son modelos más grandes podemos utilizar un valor un poquito más bajo de 0 con 05 y funciona bastante bien eso vale entonces así definimos este entrenamiento con lora vamos a definir también con bits and bytes lo que es la configuración de culora cargamos el modelo en 4 bits vamos a utilizar doble cuantización para ahorrar un poquito más de espacio en memoria utilizamos el normal flow de 4 bits vale como tipo y luego para los cálculos vamos a utilizar en mi caso b flow 16 en el caso de que estéis en arquitecturas no han pere por favor cambia cesto por flow 16 vale ya que de otra manera nos va nos va a funcionar entonces los que estéis ahora mismo en google colab cambia lo por flow 16 ejecutamos esto cargamos el modelo pasándole la configuración de cuantización le decimos de nuevo que toquen igual a tru vale porque sino no nos va a dejar hacerlo y eso lo voy a ir ejecutando ya porque tardará un poquito en cargarlo y luego tenemos que utilizar estas funciones de pf para preparar el modelo para entrenamiento cuantizado vale entonces le pasamos esta función de preparer model 4 kbit reining se lo pasamos al modelo y le decimos que vamos a usar gradient checkpointing y luego ya tenemos el modelo simplemente llamando a get get peft model vale pasándole el modelo y la configuración del hora que hemos definido previamente cuando activamos el gradient checkpointing importante le tenemos que pasar yuz kase yuz kache igual a force de acuerdo entonces esto ya lo tenemos y ahora una cosa que es también súper importante y que esto se ha demostrado que además es vital para tener buenos resultados en el entrenamiento de instrucciones de nuevo créditos para el equipo del proyecto guanaco que fueron de los primeros que empezaron a decir estas cosas y tenían toda la razón del mundo yo luego experimentado con esto y sin esto y definitivamente cambia la cambia la historia el caso es que hay algunos algunas capas en concreto las capas del hora tenemos que asegurarnos por supuesto de que están en b flow 16 o si estáis en arquitectura no amperé en flow 16 pero luego las capas de normalización necesitamos que tengan mucha precisión esas capas son muy importantes que tengan mucha precisión y es por eso que las usamos en flow 32 directamente vale esas capas de normalización las vamos a tener en flow 32 además la cabeza del modelo de lenguaje y la matriz de embeddings del inicio del modelo de lenguaje las vamos a querer tener en b flow 16 también de nuevo esto si estáis en google colab por favor flow 16 en lugar de b flow 16 vale entonces esto es algunos ajustes de los tipos para decir vale que tenemos el modelo cuantizado a 4 bits pero no queremos tener todo el modelo cuantizado a 4 bits habrá algunos pesos que querremos tener en una precisión mayor para evitar perder demasiado rendimiento vale estos son los pesos que se ha demostrado que tienen mayor impacto a la hora de cuantizarse si los cuantizamos vamos a perder rendimiento y eso por supuesto es algo que no queremos así que los pasamos al tipo adecuado entonces una vez tenemos esto ya podemos pasar a definir el trainer y entrenar para eso definimos el sft trainer le pasamos el modelo le pasamos los argumentos de entrenamiento que hemos definido previamente el data set de entrenamiento el de validación una función para formatear el chat que ya hemos definido antes y que utiliza ese apply chat template y un tamaño máximo de secuencia que en este caso lo hemos fijado en 4096 una vez el trainer está definido ahora está mapeando generando el el data set tokenizado podemos llamar al método frame entonces vamos a ver ahora cómo empieza a entrenar el modelo no nos vamos a quedar por supuesto aquí esperando a quetermine de termine de entrenar el modelo porque tardará bastante vale simplemente nos quedamos aquí viendo pues que esto funciona adecuadamente vale ya veis que está ya aquí lo queando la pérdida vamos a comprobar el uso de la memoria de gpu bueno veis que ahora mismo está en 9 gigas nada más vale con lo cual os sobra completamente con los 15 gigas de una gpu de google colac para para entrenar con el data set alpaca que quizás pues no tiene no tiene más de un turno y por lo tanto pues no van a no va a ser demasiado grande ninguno de los ejemplos que tengamos aquí vale si estamos utilizando un data set un poco más grande es posible que sí que se llegue a ese máximo de 4096 que hemos marcado y por lo tanto pues ahí pues tendríamos que hacer algunos otros algunos otros ajustes vale pero ya veis que ahora mismo me está ocupando 9 gigas esto y bueno le quedarían unas tres horas y como aunque seguro que además de uno sobre todo para los que es sea la mañana ahora mismo os encantaría pasar tres horas de un lunes viendo aquí logs de un modelo de lenguaje vamos a detener de momento este entrenamiento y vamos a volver un segundo a la presentación bueno entonces ahora vamos a hablar de neftune neftune es un método que sale hace unos pocos meses aquí os dejo el link al al paper que consiste principalmente en introducir un poquito de ruido a la matriz de embeddings y esto pues parece que mejora las métricas que obtenemos luego en diferentes benchmarks que hay de instruction tuning no entonces el método consiste principalmente en los siguientes en primer lugar creamos un vector de ruido uniforme que llamamos epsilon con valores que van de menos uno a uno este vector de ruido lo vamos a escalar por un parámetro esto es un hiperparámetro del método alfa dividido entre la raíz cuadrada de la longitud de la secuencia por la dimensión del modelo vale entonces con este parámetro de alfa los autores prueban con los valores de 5 de 10 y de 15 vale con esos tres valores pues más o menos experimentan que se obtienen resultados razonables no hay un valor concreto de todos ellos que digamos este es mejor pues como todo depende un poco del caso de uso vale y ahí pues yo sinsto a experimentar y a probar diferentes valores con los que con los que bueno pues poder experimentar diferentes rendimientos del método esto de método aumenta considerablemente el tamaño de las secuencias que se genera no se se vuelve mucho más verboso mucho más hablador mucho más parlanchín el modelo vale esto lo tenemos que tener en en cuenta también y estos además pues los autores analizan que tiene algo que ver con el rendimiento percibido ya sabéis que evaluar modelos de instrucciones es muy difícil en este caso lo están evaluando con el alpaca eval y esto utiliza modelos de lenguaje grandes como gpt4 por detrás para llevar a cabo la evaluación de acuerdo entonces qué quiero deciros con esto lo que quiero deciros es que al final para los modelos de lenguaje grandes lo que parece que está claro es que las secuencias más largas las respuestas más largas esas instrucciones más detalladas resulta por los modelos pues se perciben como mejores instrucciones o mejores respuestas digamos a las instrucciones del usuario y este método pues lo que se observa es que mejora el rendimiento en general como podemos ver en este gráfico de aquí abajo vale veis que produce una mejora pues en algún caso de 15 puntos en otro caso de 8 de 9 de 7 incluso de 34 puntos en el caso del data set alpaca aunque en el truzo el qe o sea para lo que es cuestión answer infactual no parece que se observen mejoras notorias no y los autores bueno pues no terminan de tener del todo claro lo podéis ver en su paper a qué se debe del todo está mejora ellos sueltan un poco la hipótesis y tiene ciertos sentidos y lo pensamos de que al meterle un poquito de ruido a los envidings del modelo hacemos que este sea un poco más robusto porque no hacemos hacemos que larepresentación que tiene de las instrucciones que recibe del usuario no sean perfectas y aún así tiene que producir una respuesta perfecta frente a instrucciones que están ruidosas no y eso puede hacer que sea un poco más robusto que y que fuera de distribución pues generalice un poquito mejor esta es un poco la hipótesis que plantean los autores y en la práctica pues funciona bastante bien de hecho pues un mítico como leuist un tal ponía iba a decir hace poco porque este mes se me ha pasado muy rápido yo todavía lo tenía en la en la cabeza cuando estaba preparando la charla me acordaba y decía bueno sí hace unos días bueno hace ya un mes leuist un tal compartía este post en linkedin en el que decía bueno aquí tenéis una receta muy muy simple pero que funciona no que es una mezcla de neftune y este paper que dice long is more for alignment que básicamente lo que hace es que te quedas con los mil ejemplos más largos más largos en respuesta es decir más largos en los que la respuesta de la gente del asistente es más larga vale y esto tiene sentido además porque son de esos ejemplos de los que más aprendemos cuando el asistente tiene que dar unas respuestas más detalladas porque tiene que hacerlo más paso a paso y por lo tanto se ve mejor el proceso de razonamiento que tiene que seguir y eso está muy relacionado con lo que se observa en otros papers como el orca en los que se ve que ese tipo de razonamiento paso a paso ese chano thought pues hace que los modelos desarrollen mayores capacidades no entonces simplemente cogiéndote los mil ejemplos más largos del data set por ejemplo en este caso era en el open hermes data set en este caso era un cero como uno por ciento nada más del data set y luego lo que hacía era aplicar un neftune con alfa de de valentos aquí tenéis este truquillo que parece que funciona bastante bien y vamos a ver ahora cómo implementar todo esto con la librería auto transformers que nos simplifica un poquito todo el trabajo con este tipo de modelos vale sobre esto pues vamos a ir un poquito rápido porque ya hemos introducido y ya sabéis cuáles son todos los pasos creamos en primer lugar la plantilla de chat como hemos hecho antes vale usamos la misma plantilla vamos a cargar el data set y le vamos a aplicar esta función de instrucción tu chat que viene en autotransformers y que ya nos permite pues con diferentes formatos que tengamos de data sets de tipo instrucciones pasarlos a un formato conversacional como el que espera como el que esperan estos modelos vale yo siempre os recomiendo pasar del formato instrucciones a un formato conversacional aunque nada más sea de un de un turno vale entonces simplemente le aplicamos esta función de transformación partimos entre y en test como antes y ahora en autotransformers hay tres objetos principales por un lado está el data set config o sea la configuración del data set por otro lado está la configuración del modelo el modelo config y por otro lado está el autotrainer es decir el autentrenador la gracia de autotransformers es que vamos a poder iterar sin mucho esfuerzo por múltiples data sets con múltiples modelos vale lo que recibe el autotrainer es son una lista de model configs y una lista de data set config entonces empezamos definiendo algunos parámetros algunos argumentos de entrenamiento fijos por los que no me voy a detener mucho porque son exactamente los mismos que hemos utilizado antes solo que en formato diccionario de acuerdo estos van a ser fijos para todos los data sets que queramos luego tenemos que configurar el el data set de alpaca y aquí pues le pasamos el nombre un alias le decimos que no entrene al final le vamos a decir que la tarea es chatbot como por defecto él ya se va a ir a buscar el campo messages no tenemos que indicárselo si no habría que indicárselo en alguno en uno de los parámetros del data set config lo tenemos aquí el chat field vale en lugar de messages pues si tenemos el campo chat pues chat field igual a chat vale se lo indicamos aquíle decimos que tenemos ya el data set precargado tenemos múltiples formas de cargar data sets aquí en autotransformers podéis ver más en la documentación y como no tenemos un conjunto de validación bueno pues le decimos que queremos que lo cree vale pues esto con el parcial de street nos lo va a crear entonces esto lo metemos dentro de un data set config lo cargamos con ese diccionario que define la configuración vamos ahora con la configuración del modelo volvemos a definir la configuración del lora igual que hemos hecho antes y esto se lo vamos a introducir al model config vamos a pasar a cargar ahora el modelo de gema 2b igual que hemos hecho antes lo vamos a guardar con el nombre gema barra baja 2b y en el directorio pues en el directorio gema 2b alpaca tenemos aquí un rapper que nos va a hacer todos los pasos necesarios de culora vale entonces simplemente lo hemos importado antes el culora rapper model in it se lo metemos aquí al model in it wrap class y le vamos a pasar también pues la quantization config que de nuevo también está integrada dentro de la librería autotransformers con lo cual se puede importar directamente del submódulo lm templates le pasamos la configuración de peft que hemos definido justo arriba este lora config y ahora le vamos a decir que el neftune nois alfa va a ser de 10 vale como siguiendo un poco el consejo del ego y estrustal y tenemos un trainer que ya está preparado para utilizar esto de neftune vale entonces le vamos a pasar este neftune trainer que va a utilizar ya esto internándolo con el trainer de transformers tenemos una función también para modificar el toquenizador que es esta modify tokenizer y se la podemos pasar directamente al model config vale para que internamente luego utilice esta función para modificar el toquenizador le decimos que el tamaño máximo de secuencia será de 4096 de nuevo le decimos que añada un pattoquen a los especial tokens y que añada un chat template lo definimos entonces ahora vamos a lanzar el autotrainer le pasamos como veis una lista de model config una lista de data set config un sitio donde guardar las métricas en este caso pues métrix alpaca en este caso no vamos a hacer búsqueda hiperparámetros con lo cual le pasamos que el modo de búsqueda hiperparámetros será fixed aquí con este tipo de modelos lo normal es no buscar mucho hiperparámetros porque suelen ser entrenamientos bastante pesados no suele llevar bastante tiempo a entrenar con lo cual aquí pues lo normal es que lo utilicemos en el modo en el método fijo y que utilicemos este autotrainer para entrenar distintos modelos vale para probar por ejemplo pues con un modelo mistral con un modelo llama de 7b y con el gema de 7b por ejemplo y simplemente metiéndome aquí las tres configuraciones pues ya él va a generar el bucle y mientras nosotros pues nos podemos dedicar a leer papers o a cualquier otra cosa que nos guste le decimos que utilice el token de autenticación vale ya que de otra manera gema pues no va a funcionar esperad que aquí claro que no ejecuta el hora con filfetal y una vez tenemos cargado el autotrainer ya podemos llamarlo y nos devolverá los resultados vale entonces esto ya pues ahora se pondrá a funcionar y ahora bueno si estáis oyéndolo de repente parece que estoy en una nave espacial porque la gpu ahora pues está empezando a funcionar no sé si ha llegado a la gpu pero por lo menos el data set se está se está tocanizando porque este de aquí abajo suena bastante pues bueno volvamos un segundo a la presentación que ya en nada empezamos los turnos de preguntas que creo que es la parte más más interesante de esta sesión de hoy pues bueno cómo conseguir estos regalos que mencionaba que hay uno que es para todos otro que será a sorteo vale en primer lugar seguid a lenguagenatural.ai en el link en internet aquí el link vale lenguagenatural.ai después de linkedin.com/company comparte por favor nuestros posts sobre autotransformers y nuestra academia recién creada con tu redtenéis los posts dentro de la página de lenguagenatural.ai dale una estrellita al repo de autotransformers en kit hab dadle un poquito de un poquito de amor y escríbeme en mi link linkedin personal que es alejandro guionvaca guion serrano para canjear este este premio y obtener ese 60 por ciento de descuento en el en el curso experto en procesamiento del lenguaje natural y hasta aquí la parte de charleta mía ahora empieza la que creo que es la parte más más interesante en la que podéis hacerme preguntas y esto se vuelve un poquito más más dinámico así que muchas gracias a todos por vuestra atención y por vuestro tiempo y dejo que maria me vaya pasando aquí la patata caliente perfecto muchas gracias alejandro es súper interesante como siempre y que bien que al final le hayamos podido compartir el colegio o sea que bueno a ver si se va animando la gente podéis preguntarle cualquier cosa dale ahí pero bueno me las vas pasando sí sí sí ahora igual hay alguna ya por aquí bueno esto creo que ya lo respondiste te preguntaban cuál es el nombre del lenguaje para interfaz del chat para la interfaz del chat a bueno yo creo que es la string no como el chat y ya y ya y yo creo que era eso sí es y ya vale sé que es feo el y ya pero le cogeréis cariño enseguida porque luego ya vais a ver que a la hora de poner los modelos en producción funcionan mucho mejor cuando se han entrenado con una plantilla en concreto es mucho más fácil luego aplicar esa plantilla directamente a los mensajes que vengan en producción y ya directamente pues el modelo ve el mismo tipo de mundo al que le hemos acostumbrado durante el ajuste fino entonces ya veréis que le cogeréis cariño perfecto vale alias no se pregunta si esta plantilla de hecho depende del modelo al que se va a hacer finings es que si no se puede mirar la estructura que tiene que tener la plantilla si depende del esperar que voy a parar el entrenamiento que creo que esto está sí está apetando verdad si se ha petado tu tu vídeo si sí sí está apetando todo no para el entrenamiento a tiempo a ver si me da tiempo a hacer el país antes de que termine de explotar todo en medio segundo ahí Dios si a ver vale ahora va ahora sí sí vale bueno es lo que tiene los talleres sobre entrenamiento de modelos de lenguaje que de repente ponemos a la vez a google chrome y a gemma aquí a competir por los recursos del ordenador y nada se ponen celosos el uno del otro y tiran cada uno para un lado con respecto a esto de la plantilla el chat que depende que si depende del modelo que se va a hacer 20 mira hay plantillas ya definidas en la mayoría de los modelos de chat que están disponibles en abierto la de gemma por ejemplo no me gusta mucho porque no tiene una parte de sistema y tampoco os vais a encontrar con general no tienen una parte para el input vale o sea no tienen un campo definido para el input tanto la de llama como la de gemma como la de en general no tienen un campo definido para el input es muy importante que si tengan un campo siempre para el sistema del input es un poco opcional y dependerá de vuestro caso de uso de si estáis utilizando algún contexto adicional o no por ejemplo cuando estáis entrenando para tareas de rag sí que sería muy interesante pues tener ese input añadido no esto se puede mirar directamente en la configuración del toquenizador en hagin face o sea si os metéis aquí estoy compartiendo aquella pantalla y esperad que esto está con mis toques también medio segundo que busco el modelo de gb más 7b tranquilo estás compartiendo o sea no se ve ahora mismo ahora se ve ahora sí o sea los lo pongo yo me refiero o sea que tú cuando me quieres cuando quieras compartir me avisas y la vais y os fijáis aquí tenéis el chat en play aquí se ve horrible porque esto es una string así de mala manera pero esto si le hacéis un print vale a todo esto pues lo podéis ver un poquito mejor pues lo tenéis directamente en el chat en play aquí estoy por ejemplo viendo el de jema vale pero si me meto en el de llama instru como se llama aquí porejemplo no cómo se llama el de aquí el chat que cada uno pone pone los números diferentes aquí también si os fijáis sí que viene uno que tiene el sistema vale y aquí ya pues viene el resto de la string entonces aquí tenéis esa plantilla predefinida si vais a partir de un modelo que ya está entrenado para instrucciones sí que pues puede ser conveniente utilizar la misma plantilla que ha utilizado ese modelo originalmente vale pero vamos esto es completamente opcional y si tenéis un suficiente volumen de datos no será necesario sino que podréis simplemente pues partir de vuestra propia plantilla pero si vais a utilizar el de a machate o jema instrucción tuning pues conviene utilizar el suyo y aquí podéis podéis mirarlo vale más preguntillas maria no sé si se ha caído yo voy a ir voy a ir mientras respondiendo más cosas parece que hay otra librería llamada igual te da error pues no me habría dejado subir la librería subir a otra llamada igual ya estás de vuelta no me cuenta que no tenía batería nada no te preocupes estaba estaba respondiendo a la siguiente con las y quieres es esto de parece que hay otra librería llamada igual y estaba comentando que justo realmente originalmente la iba a llamar auto lm es y y finalmente no pude llamar la auto lm es porque había una se llamaba muy parecido auto lm es en pip en papay y por eso no me dejó o sea que no permite papay que haya dos librerías llamadas llamadas igual entonces no sé mira a ver si las he escrito si las he escrito bien si haces pip install auto transformers sólo te debería instalar esta sí para ti cual que el lm que el lm se deja utilizar en el personal trabajé mucho con llama bueno sin duda llama es una es una gran alternativa y además atentos porque viene llama 3 dentro de muy poquito así que atentos todos a ese link de ya en lecún que seguro que lo anunció dentro de muy poquito llama por supuesto es una gran alternativa sobre todo en lo que se refiere al multidioma y bueno pues a nosotros para el lenguaje castellano por supuesto funcionan muy bien pero yo en mi experiencia por ejemplo me gusta mucho también mi estral sobre todo porque tiene una atención con con ventana de 4096 tokens con sliding window y eso permite que puedas utilizar un tamaño de secuencia bastante mayor con un coste lineal en lugar de cuadrático porque lo que es el campo receptivo no deja de estar en 4096 entonces dependiendo un poco del caso de uso por ahí tenéis varios benchmarks también depende por ejemplo si vas a hacer algo relacionado con las matemáticas o con el código en cuyo caso pues normalmente los modelos de llama sobre todo de 13b en adelante pues van a funcionar bastante mejor si queremos que nuestro modelo de lenguaje haga cuentas por ejemplo que haga análisis sobre un report financiero así lo más probable es que llama funciona un poquito mejor pero a mí mi estral también me gusta mucho los modelos de gemas tienen la ventaja de que hay uno de dos billones y que por lo tanto es mucho más usable es más fácil de entrenar con menos recursos y demás pero mi experiencia es que me parece que han incluido pocos datos multilinguaje me parece que está muy centrado en el lenguaje inglés y en español pues no funciona tan bien probablemente serían los tres así más relevantes sin olvidarnos por supuesto de los modelos de este y vol lm que también funcionan bastante bien luego están los modelos falcon que funcionan un poquito peor por mi experiencia personal entonces yo por enfocarlo me quedaría principalmente con los tres primeros que hemos dicho mistral llama y gelma y de en y hace poco también está está cogiendo popularidad los métodos de rwk v es un nombre horrible lo sé pero esta arquitectura está cogiendo también bastante popularidad y están trabajando también en el multidioma recientemente y además el coste de inferencia es bastante más bajo así que por el bien del medio ambiente y de vuestras carteras también pues mantenez un ojo en ellos genial en alias nos pregunta bueno primero no lo voy a por la charla y después nos pregunta aver si recomiendas el uso del lanz mi fuego similar para monitorizar los modelos en uso bueno siempre es un placer ver a alex focus por aquí gracias por gracias por asistir yo fíjate creo que ahora mismo tenemos todos un pequeño vacío una pequeña laguna en el tema de la evaluación de los modelos yo no me caso con ninguna librería en particular a mí la métrica que más me gusta probablemente sea el semántica en ser similar y sobre todo para tareas de rwk ahí me parece que es donde nos resulta más fácil evaluar sin tenernos que ir a modelos a modelos muy grandes luego pues hay diferentes alternativas como como está que comentas de langsmeef para el tema de la monitorización y esa evaluación a mí ninguna de ellas me termina de convencer demasiado sobre todo porque al final casi siempre solemos utilizar en el background solemos utilizar modelos de lenguaje demasiado grandes para para esa evaluación y a mí eso es algo que claro sobre todo también por la cartera pues pues no me termina de convencer en el open source hay una alternativa que es la métrica prometeus lo que pasa es que solamente está en inglés en la que bueno pues han entrenado modelos llama para evaluar que aprenden a evaluar entonces lo que hacen es aprender a imitar esa evaluación que solemos hacer con que solemos hacer con gpt4 por detrás pero si hay varias alternativas yo no me termino de casar con ninguna la verdad yo me yo opto por ese semanticancer similarity que pese a que es un poco más antiguo y demás a mí me parece que cumple un buen equilibrio entre una gran evaluación y a la vez es barato porque es medio gratis y como tira de sentence transformes por debajo pues podemos utilizar modelos modelos multilingües genial gracias ahora y dos preguntas que son bastante similares entonces te las leo las combinamos un poco y y les vale cuántos datos consideras buenos para un entrenamiento decente bueno decentes como todo muy subjetivo en caso de que quieras generar tu propia data sete bueno que esto es más bien pues porque están generando sus propios data sets y no saben cuánto necesitan vale como la dopamina siempre más la otra que es similar bueno es similar pero tampoco tanto si un documento es muy grande salen cientos de páginas en un pdf cuántos pares de instrucciones necesitan para que abar que el documento si quieres después separar las responder separadamente vamos a responderlas por separado yo creo bueno aparte de la broma no necesariamente necesitamos siempre más no y de hecho hay trabajos como Lima o como este trabajo que hemos mostrado antes de long is more for alignment que muestran que lo que necesitamos muchas veces no es más datos sino que los datos sean más completos entonces depende mucho también de cuánto puede aprovechar el modelo cada uno de esos datos si por ejemplo las respuestas que tiene el asistente en esos datos son muy cortas pues vamos a necesitar un volumen bastante mayor pero si las respuestas son detalladas muy paso a paso pueden mostrar el proceso completo de razonamiento que tendría que seguir el modelo para llegar a la conclusión del mensaje y demás en ese caso podemos conformarnos probablemente con un número entre 500 y 1000 elementos si estos parece mucho nos preocupéis o sea siempre pues cuanto más cerca podamos estar de eso mejor no pero con técnicas como neftune quizás pues podemos entrenar durante más épocas y le metemos un poquito de ruido y podemos romper esa barrera que suele haber con este tipo de entrenamiento de culora en la que vemos que normalmente entrenar más de una época no es útil pero entrenar más de una época con neftune pues sí que produce buenos resultados esto lo mostraba también el lego instruxtal en el post que he puesto que he puesto antes no entonces mi consejo es que primero cuidéis la calidad de cada fila o sea es muchísimo más importante que cada fila sea de mucha calidad que el modelo puede aprender trazas completas de razonamiento de cada uno de esosdatos y luego ya nos vamos al volumen pero sobre todo que que haya densidad de pensamiento digamos en la en cada una de esas filas ese es mi consejo particular y luego una vez cumplimos eso pues a más mejor calidad antes que cantidad si siempre genial entonces ahora la otra pregunta sobre los datos si tienen documentos muy grandes sentos de páginas en un pdf cuántos pares instrucciones se necesitarían para barcar todo el documento es que eso depende mucho del tamaño de secuencia máximo que permita el modelo si trabajamos con el modelo gema por ejemplo pues está entrenado con tamaños de secuencia de 8000 de 8192 que es bastante grande si trabajamos con llama pues ya nos tenemos que bajar a 4192 o con los modelos stable el em pero por ejemplo con mistral no hay ningún problema por entrenar con 16384 o incluso 32000 tokens no dependiendo también pues de los recursos que que tengamos entonces depende mucho del tamaño de secuencia que permita nuestro nuestro modelo también depende del caso de uso final que vayamos a usar si por ejemplo el caso de uso final es un sistema de ra de retriba la argumenta de generación tenemos que tener en cuenta que normalmente los modelos de la parte de recuperación de información no tienen un tamaño de secuencia muy grande y esto además tiene un sentido no me voy a poner aquí a filosofar pero en el paper de m3 que son unos modelos de embedding que se sugiron hace hace poco pues hacen un pequeño análisis y tal y hace poco el no me acuerdan a mí mismo de su nombre pero el líder de sentence transformers pues publicaba una reflexión al respecto en el link edin no de que los modelos por la tarea que resuelven los modelos de recuperación de información no deben tener un tamaño de secuencia mucho más grande que 512 entonces lo normal es que recuperáramos pues de entre 4 y 10 pasajes vale con lo cual lo normal es que podamos tener luego como cuatro turnos como mucho de conversación con respecto a esos pasajes recuperados como para que nos entre en un máximo de 8192 tokens pensando sobre todo en mistral y en jema más o menos por ahí podemos andar no sé si eso responde del todo a la pregunta yo creo que si tienen una follow-up la pueden escribir y si por supuesto si ahora tenemos una pregunta sobre autotrain porque este año en el jacatón también hay facebook a trocina gpu también autotraik entonces pues también a los equipos a utilizarlo y creo que lo que te piden más que nada son recomendaciones para los valores más habituales bat size model maxlain y debas entrenando es que depende si de con qué formato entrenemos y con lora culora o haciendo full fine tuning entendiendo que es full fine tuning mi recomiendo digo perdona entendiendo que es lora o culora que es como normalmente se suelen entrenar estos modelos de instrucciones yo diría que el bat size total es decir teniendo en cuenta el bat size real más el credienta cumulación steps que estemos como en los 16 más o menos entre 8 y 16 probablemente funcione bastante bien con el respecto al tamaño máximo de secuencia del modelo pues eso depende también de los datos ya habéis visto que en el caso de alpaca por ejemplo pues elevar mucho el tamaño de secuencia hasta los 4192 pues tampoco me servía de mucho no porque las instrucciones eran en general bastante breves con lo cual eso depende mucho de los de los datos si tenéis datos grandes digamos o sea si tenéis conversaciones suficientemente grandes yo ese tamaño máximo de secuencia intentaría tenerlo en 4192 y si dan los recursos en 8000 perdona en 4196 en 8192 entre entre esos valores normalmente estaremos bien y con respecto al bat al learning rate que es el otro parámetro que solemos querer tocar dependiendo del tamaño del modelo entre 1 de -4 y 3 de -4 encontraremos buenos resultados genial creo que también tenían dudas sobre las épocas porque la ley ya que estamos con autotrain de que depende el número de épocas o cómo podemos mirar comodefinir también porque también es un valor que también viene por defecto y yo aquí los fíjate que normalmente entrenando modelos de instrucciones o conversacionales hay como una rule of thumb de entrena por una época y no entrenes más y la verdad es que normalmente funciona bien esa esa rule of thumb cuando los modelos son un poco más pequeños es decir yo en cada vez esa rule of thumb la he sacado con mi experiencia de modelos entre 7 y 70 b sobre todo entonces claro esto a lo mejor con un modelo de 2b pues no es tan extrapolable y en el caso del ego y esto instal ya ha enseñado antes que él mencionaba que hacer 15 épocas con neftune alfa a 10 y cogiendo solo las instrucciones más largas eso le funcionaba bastante bien entonces yo creo que depende también de cuánto se pueda aprender de cada dato si hay mucho que extraer de cada dato pues verlo más de una vez nos puede salir rentable si de cada dato no hay tanto más que extraer con verlo una sola vez será suficiente normalmente como rule of thumb ya os digo yo mi experiencia con una época es suficiente y más normalmente suele derivar en una degradación del rendimiento del modelo fuera de distribución con lo cual no lo recomiendo demasiado perfecto gracias pregunta cortita me he perdido algunas partes le has aplicado algún ras a tu código o algo por el estilo no hemos hecho no hemos hecho rach no hemos hecho rach eso lo dejamos para una charla futura porque ha quedado pendiente originalmente se lo había propuesto a maría y me gustaría enseñar un sistema de rach en producción pero lo dejaremos para una futura charla así que bueno os dejo ahí el cliffhanger así que estas pendientes que somos en el p vienen cosas todavía después del jacatón si no hemos quemado el todo a maría que la pobreza está pegando una paliza ahora más cosas ahora más cosas otra pregunta qué modelo recó bueno que lm recomendarías para entrenamientos chat con data sets de 20 mil filas es un poco similar pero ya más hablando de creo más bien del tamaño fíjate fidos el problema es que funciona muy bien en los benchmarks públicos porque se ha entrenado con libros de texto y es que los más públicos se evaluan conocimientos sobre cosas que tienen que ver sobre libros de texto pero esto es el juego este vicioso en el que hemos entrado de que hay una comparación pública y unos benchmark públicos y entonces se convierte en un juego de ver cómo de bien lo puedo hacer ahí porque eso me da fama pero yo en la práctica no he visto que ese modelo funcione demasiado bien luego cuando lo sacamos de esa distribución de las tareas que pueden tener que ver con los libros de texto y menos aún cuando hablamos de datos que no estén en inglés desde luego de esos tres modelos que mencionas mistral 7b microsoft si o tiny llama para español desde luego sin lugar a dudas me quedo con mistral sin sin ninguna duda en general igual se nota mistral es mi favorito probablemente de todos los modelos que hay ahora mismo en el panorama es es mi favorito yo es con el que he tenido mejores experiencias y en general funciona muy bien la verdad y si voy a usar un modelo tipo llama uso llama no no uso el tama porque se ha entrenado con muchísimos trillones de tokens son la gracia de los modelos llama es que entrenan mucho más allá de lo que el paper de chinchilla diría que tiene que ser el presupuesto para ese tamaño de modelo y eso les permite captar muchísimo conocimiento o sea llevan los aprendizajes del paper de chinchilla a otro nivel entonces o mistral o llama o gema si me tengo que quedar con tres me quedo con esos tres perfecto ahora una pregunta sobre poesía también te gusta mucho expresarte bien no sé cómo decir esto bueno me gusta la poesía no sé si lo he dicho alguna vez en público pero yo escribía poesía hace mucho tiempo que no me rompe en el corazón entonces por eso lo tengo un poco abandonado pero me gusta mucho la poesía y además hace no mucho leí un post sobre sobre este tema de por qué los modelos de lenguaje no son buenosescribiendo pues ya sobre todo yo he visto que no son buenos les dices yo quiero un soneto y el y quiero un soneto quiero versos alejandrino está nada no te hacen ni caso porque no te hacen ni caso por el toquenizador el diablo está en el toquenizador y eso es una cosa difícil de superar el toquenizador es el que es y para el modelo es muy difícil tener esa conciencia de sí la vas dentro de los tokens que está generando no entonces en general decir que es una tarea difícil prepararlos para pasarlo mal pero aprenderéis mucho precisamente porque es difícil no cargaros de resiliencia y luego aquí lo que sí que os recomendaría en el caso concreto de la generación de poesía es utilizar parámetros de generación un poquito distintos a los que se suelen utilizar la mayoría de las veces por supuesto usaría sampling pero usaría sampling con una temperatura más alta normalmente cuando vamos a cerrar pregunta respuesta preguntas o sistemas de chatbot o así queremos ir un poco más sobre seguro y afilamos mucho la distribución del siguiente toquen y utilizamos una temperatura de 0.3 o 0.2 incluso en algunos casos de cero vale pero normalmente cuando queremos escribir poesía queremos que el modelo sea un poquito más creativo para que sea más creativo les subimos un poco esa temperatura y luego otra cosa que funciona bastante bien a la hora de que el modelo sea creativo y de que escriba una poesía que no se quede digamos anclada en lo mismo es utilizar contrast chips con contrast chips es una técnica de generación de texto que viene a penalizar los tokens que tienen una similitud semántica demasiado grande con el contexto ya generado y esa penalización creo que en el paper utilizaban no me acuerdo si era 1 con 2 o 0.6 podéis mirarlo y está integrado completamente en hagan face esto del contrast chips entonces esto tiene más que ver con lo que es el después del fine tuning o sea una vez ya el modelo ha sido ha sido entrenado una a la hora de a la hora de ponerlo en producción con respecto al tatasé la verdad es que no le haría un tratamiento muy especial creo que en este caso en concreto el tema de neftune pues puede funcionar bastante bien porque lo puede volver al modelo bastante robusto y si tenéis alguna instrucción asociada a cada poesía creo que puede ser muy bueno para que el modelo aprenda a asociar estilos concretos con un tipo de poesía o autores concretos o tipos concretos de poesía no eso creo que puede ser muy interesante y si tenéis ese tipo de datos o de metadatos sobre cada poesía podéis enriquecer mucho ese data set genial yo me estaba adelantando ya un poco a la siguiente pregunta porque al parecer isaias le han cantado la charla pero dice que se pierde un poco con los cambios rápidos en las técnicas y es que realmente yo diría que desde este último año un poco más han salido cuatro mil tropejintas diferentes entonces bueno he compartido tu de hecho tu taller y los de manu de las anteriores ediciones que pues el año pasado si quitemos como un poco más enfoque en color y explicarlo bien y que dan todas estas cuestiones bueno se acabó de compartir y aparte bueno a ver si tienes tú también otras sugerencias para ponerse cómo podría ponerse al día usar mucho link yo es es lo primero que puedo que puedo recomendar yo en mi caso pues es la red social que utilizo el resto de redes la verdad es que las tengo bastante abandonadas maría que se siente identificada totalmente es es un consejo ahora ya pues sacándome la camiseta de lenguaje natural punto hay os diré que dentro de poco voy a empezar con la newsletter en la que bueno pues todas las semanas sacaremos los los papers más relevantes de cada semana haremos un pequeño resumen entonces en lenguaje natural punto hay directamente os podéis apuntar en esa newsletter de heisel y me y cuando empiece pues recibiréis todos los todavía no he decidido si son los domingos o los lunes tengo que decidir que día es mejor para leer sobre las novedades de últimas de la lla pero precisamente creo que este es un problemabastante común a mí también me pasa o sea es abrumador la cantidad de cosas que que salen yo la persona con la que más hablo por wasps soy yo mismo porque yo con cada post interesante con cada técnica interesante que va saliendo me la voy mandando a mi chat de wasps y no me da tiempo ni siquiera a leerme a mí mismo entonces es un poco abrumador con lo cual tener un poco pues hay una newsletter que permita tener como un pequeño resumen semanal y tal eso creo que vendría bastante bien en castellano creo que no hay muchas cosas de esto y es una de las cosas que vamos a hacer desde desde lenguaje natural punto ahí y por supuesto miraros todos los vídeos de somos en el ep que hay un huevo o sea que tenéis ahí en la en la página en el canal de youtube también tenéis un montón de vídeos para ir poniendo saldía y sobre todo pues relax y no sabré un mes esto es un mundo maravilloso en el que ahora lamentablemente pues hay que separar el grano de la paja pero pero llegue mejor eso a que no haya movimiento que no venga otro invierno de la lla no lo parece la verdad no tiene pintado va seguimos con técnicas de entrenamiento qué herramientas o tecnologías hay disponibles para implementar un rlhf después de un finetuning para hacer el alineamiento de los modelos de lenguaje con preferencias humanas que es esto que comentas del rlhf realmente ahora la técnica que es más popular o lo que más es lo utilizar es el daríez referencia optimization porque no requiere el uso de un modelo de recompensa intermedio y los resultados pues son bastante prometedores también pues en este sentido necesitamos datos en castellano para esto ya he visto que como parte de las iniciativas del jacatón se está traduciendo el data is better together que es un data ese precisamente que busca pues cubrir este tipo de cosas en autotransformers está integrado ya este tema del alineamiento lo que pasa es que todavía no me ha dado tiempo a documentarlo porque tengo la mano un poquito regular siendo así plenamente honesto vale está integrado o sea ya lo podéis utilizar y si seguís el código pues es simplemente meterle alignment pasarle un un dataset que tenga el prompt el elegido y el rechazado y el ya te hace el daríez preferencia optimización dentro de poco lo documentaré y por debajo esto lo que utiliza es la librería trl que dentro de las librerías de rinforz me learning from human feedback es la que más recomiendo y luego en este sentido ha surgido una técnica nueva a mí bueno yo vengo del del mundo de la economía originalmente aunque igual ya no lo parece espero y el caso es que bueno en este mundo de la economía sobre todo la economía del comportamiento había dos tipos que son canemán y tibersky que revolucionaron el mundo de la economía del comportamiento no pues resulta que han integrado la teoría de canemán y tibersky en un método que se llama canemán tibersky optimización que viene a sustituir el direct preferencia optimización básicamente con recompensas de malo o bueno o sea en direct preferencia optimización comparamos el elegido contra el rechazado intentamos que se acerquen lo máximo los logics a los elegidos y que se alejen de los rechazados en en kato en canemán tibersky optimización simplemente necesitamos saber si la respuesta es buena o es mala y esto es mucho más realista con los escenarios que solemos tener en producción en los que por lo menos yo yo cuando estoy utilizando chat gpt y a mí me pone dos prom dos respuestas no me molesto en lerme las dos a la que así a primera vista me parece mejor la de hoy y ya está y continúa la conversación pero si es simplemente decirle bien o mal pues eso sí que lo hago y ese fitba sí que lo doy no pues para poder incorporar este tipo de fitbas que son más sencillos de obtener en producción ha surgido esta técnica que también pues merece la pena echarle un ojo y tenerla en tenerla en cuenta genial nos vamos cambiamos de tema pero me encanta esta pregunta crees que seríabeneficioso para todas las compañías usar lm de alguna forma y después que le dirías a un ceo para que vos haces vuestra tecnología son dos preguntas diferentes mira creo que sería beneficioso para prácticamente cualquier compañía utilizar nlp de alguna forma no necesariamente modelos de lenguaje grandes y de hecho creo que se están matando moscas a cañonazos en muchísimos casos esto es algo que además creo que tú y yo maría lo hemos hablado alguna vez o sea no utilicéis por favor modelo de lenguaje grande para una tarea de detección de entidades vale porque es que además están saliendo métodos de cero shot de detección de entidades con modelos encoders que son mucho más eficientes para para esto por ejemplo o para respuesta extractiva preguntas o para tareas de clasificación para eso no se usan en el lm porque los lm donde realmente se desaca provecho es en la parte generativa entonces creo que es beneficioso para casi todas las compañías implementar tecnologías del lenguaje de manera general porque casi todas las compañías trabajan con datos de texto y tienen datos de texto de alguna forma y por lo tanto se les puede sacar provecho mediante este tipo de tecnologías no los lm en particular pues creo que en el caso concreto por ejemplo de la búsqueda interna de documentación a mí por ejemplo nunca me ha gustado leerme páginas y páginas de pdf de documentación interna y cosas así no de mi vay probablemente más de unos sentís identificados con con esto pues es más divertidos y podemos chatar con con eso no y de hecho pues en muchas empresas esto ya se está empezando a usar ahí por ejemplo pues un caso de uso que la inteligencia artificial generativa si creo que tiene mucho sentido y luego lo que le diría un cero para apostar por estas tecnologías que dependería mucho de su sector concreto y del provecho que te pueda sacar en en concreto ese feo ya os digo creo que en general apostar por tecnologías del lenguaje nos puede hacer comprender mejor a los empleados comprender mejor al cliente y incluso facilitar y agilizar muchos de los procesos que tenemos tanto internos como externos y aunque nada más sea por eso tener pues integrantes en nuestros equipos que sepan de esta tecnología creo que es muy importante pero necesitaría saber qué tipo de feo tú dime quién y le convencimos además tiene mucha la vida de chaval así que sí mira mira a ti que te lia para dar una charla recomendaciones para la escalabilidad de los modelos bueno los grandes modelos pues bueno la primera es la cuantización hemos hablado de sólo de un método de cuantización que son los métodos de bits and bytes que normalmente están bien para entrenar pero están surgiendo cada vez más métodos de cuantización post entrenamiento como los que son x llama o gptq por ejemplo a wq hay muchos ahora mismo vale pero hay algunos que permiten cuantización hasta dos y tres bits entonces está pimiento de todos esos métodos justo y ha salido una librería que integra muchos de estos creo que también es de hagin face pero ahora se me ha ido el nombre pero era cuantizo o cuantido o algo o algo de eso vale o sea que está ascendientes porque hay una librería nueva que para cuantización en torches que integra muchos de estos métodos en una única librería eso es lo primero la cuantización lo segundo elegir un modelo de lenguaje adecuado en un tamaño adecuado para la tarea que queremos realizar por ejemplo para tareas de matemáticas necesitamos modelos muy grandes para poder hacer las cosas pero para una tarea de rach normal lo normal es que con un modelo de tres siete o trece de como mucho pues ya no salga a cuenta y eso yo creo que es todo luego pues hombre tener en cuenta también el tamaño de secuencia máxima que capta cada uno de esos modelos y sobre todo es afinar mucho con el tamaño adecuado para la tarea que a la que nos estamos dedicando no escalarlo más de la cuenta la librería de la que hablas puede ser cuánto cuánto perfecto puesla comparto y al encontrar ahí genial es que ha salido en el blog hace nada de hagin face además si por si quieres compartir también el post del blog vale pues lo busco ahora cuando mire el tema de gpus se podría estar el fin tuning a una gpu de 8 o 6 gigas y para rach bueno tamaños y capacidades utilizarla en rach en inferencia definitivamente sí eso eso seguro la hora del fin tuning vamos a ir muy justitos pero si ajustamos el tamaño de secuencia definitivamente sí simplemente que nos vamos a restringir a un tamaño de secuencia pequeñito de 512 o de 256 probablemente y el tamaño del modelo pues probablemente no pueda superar los 2 billones de parámetros que bueno no está nada no está nada mal no ya podemos adaptar un gema como el que hemos visto y simplemente pues en lugar de utilizar 4.096 de tamaño de secuencia pues lo bajamos a 1.024 a 512 y probablemente sí que nos pueda entrar en 8 o en 6 gigas otra cosa luego es cuánto tarde lo bueno de estos modulos es que como utilizan rota y posicional en bedding luego puedes o sea que tú lo hayas entrenado en unos tamaños de secuencia muy limitados luego puedes ponerlos en inferencia con tamaños de secuencia mucho mayores y funcionan con lo cual eso pues bueno los hace también más accesibles para para el público en general y vamos para la segunda pregunta definitivamente sí a la hora de hacer inferencia no habría ningún problema simplemente pues tener en cuenta el tamaño de secuencia también genial yán contra blog también lo compartí y bueno creo que se repite un poco pero ya como son las preguntas también las pongo respondemos y finalizamos hay alguna página re social para seguirlo para encontrar estos papers métodos o técnicas de verdad que lo mismo link edin y la nueva newsletter de lenguaje natural punto así no voy a seguir haciendo publicidad o sea que por mencionar otra bueno pues que sepáis que en hagan feisa y están bueno los post que son más accesibles pero luego también están los papers o sea hay un tipo que se llama acalic que si le seguís comparte un montón de cosas en y comparte los papers directamente subidos o sea no me acuerdo como se llama hagan feis papers o algo así o publicación no se llama eso marina es simplemente las papers también lo comparto genial y ahí pues tenéis de muchas publicaciones que van saliendo todos los días apuntaros a la newsletter dale y en caso de que no puedan escribirte por link edin yo creo que simplemente tenéis que mandarle petición de para conectar no sí sí sí de todas formas deja mi correo si quieres por aquí abaca lo pongo por aquí voy a dejar el correo a ver si me deja escribir yo creo que simplemente sólo no como no tienes admin rights o algo así espera te lo paso a ti aquí vale para que lo pongas si alguno nos deja de escribirme por link edin hoy se escribirá ese correo vale y no gestionamos por ahí es que el in que viene a veces hace estas cosas y es verdad que ahora te tienes también un máximo de invitaciones en las que puede escribir un mensaje también a pon un límite en eso también al final todo tacata sí sí sí sí se está volviendo en fin vale y última pregunta creo ya después de definir un modelo se puede implementar en lanchain para crear un chatbook con él hay esa es una pregunta y si es así qué tan recomendables o si existen mejores técnicas o herramientas que la ching yo como soy el de school diré que hay está que está muy bien principalmente bueno de y ahí no no estoy descubriendo nada nuevo es una empresa muy establecida en el mundo de la inteligencia artificial es una empresa alemana funciona muy bien tiene grandes profesionales y lleva muchos años haciendo esto de rach nos acaban de subir a esta ola hace hace unos meses no con lo cual definitivamente pues es más es más fiable esa es una alternativa haystack luego lanchain donde tiene la ventaja principalmente es cuando utilizamos modelos gigantes propietarios porque solamente con esos modelos gigantes propietarios encontramos una ventaja en ese encadenamiento de llamadasque es sobre la idea sobre la cual está montado el lanchain no que es pues ese encadenamiento de llamadas con mucho prompting y demás un poco el mismo concepto que tiene por detrás llama index yo si tengo que elegir entre llama index y lanchain a mí personalmente pero hoy es de nuevo creo que esto es un poco cuestión de gustos personales a mí personalmente me gusta un poco más llama index creo que lanchain surgió así muy rápido y fue un boom y probablemente para trabajar así vais a trabajar con gpt4 con gpt3.5 lanchain nos va a funcionar muy bien pero si vais a utilizar modelos propios y demás para eso yo los desplegaría antes con llama index o con haystack a mí personalmente me gustan más aunque creo que esto también pues es mucho cuestión de gustos incluso podéis combinar las a mi puede gustar el splitter de uno pero me puede gustar la integración con bases de datos vectoriales de otro entonces bueno también ahí pues yo os animo a que vayáis desarrollando un poco vuestro gusto particular pero si me tengo que quedar con una yo me quedo con el old school haystack que lo llevo utilizando muchos años y funciona muy bien muy estable perfecto pues creo que será todo increíble una hora 40 de esta yeri de buen lunes muchas gracias a todos por esta gran participación y por todas las preguntas de verdad muchas gracias si la verdad que maría por supuesto por invitarme a ti a ti por venir y por insistir no no encantadísimo la verdad y creo que todo el mundo que ha asistido también mucha info mi cabeza va a flotar muy buena charla dice eso es buena señal ahora lo que hay que hacer es echarse una siesta genial pues nada eso de verdad muchas gracias a lejandro muchas gracias también a todas las personas que han asistido ahora estamos en la última ruta del jacatón o sea que adelante mucho éxito y si tenéis cualquier duda las podéis seguir preguntando por por discord y si hace falta alguna otra sesión de mentoría o que respondemos preguntas por por discord también también a vuestra disposición vamos a por ello a por ello que yo amante chao Buen Corin. éste
Alejandro Vaca
Prospectiva estratégica y NLP, Cristina Vila Carreira | #Somos600M
Hola a todos. Hoy es el segundo día de keynote de nuestro hackathon. Somos 600M y os traigo dos ponencias súper interesantes. Antes que nada vamos a recordar el objetivo de la iniciativa y es que queremos crear recursos de procesamiento de lenguaje natural en español y lenguas cooficiales que representan la diversidad de los 600 millones de personas hispanohablantes. Para ello hemos organizado un hackathon y puesto a disposición de la comunidad Recursos de Computación y bueno además como creemos muchísimo en la formación y en haceros pensar estamos organizando keynotes como las de hoy para daros a conocer pues diversos aspectos o enfoques del procesamiento de lenguaje natural. Hoy vamos a comenzar con una keynote súper especial ahora le decía justo a Artistina, creo que son realmente es diferente a las charlas así un poco más técnicas que hemos estado viendo pero realmente tengo muchísima curiosidad por ver justo hasta aquí. Vamos a hablar sobre perspectiva estratégica, diseño de futuros, construcción de escenarios y prototipado, todo relacionado con el mundo de la NLP. O sea que os presento a nuestra ponente Cristina Vila es experta en conectar negocio, tecnología y personas, es ingeniera de teleco, tiene un máster informática y actualmente está causando otro máster en ciencias cognitivas, ha ocupado puestos de responsabilidad en diferentes compañías de seguros siendo elegida Forte under 40 por INS. Actualmente trabaja como asesora con ADL en el sector asegurador y es mentora de varias startups, ejerce deformadora en escuelas de negocio como el ISDI y la ESIC y además como conferenciante participan foros de temáticas sobre futuro, tecnología, salud y diversidad. Por último destacar que el septiembre lanzó su libro "Prepara tu organización para el futuro". Además antes de darle comienzo quería deciros que nos ha dejado una pregunta que os transpasa toda la comunidad y es que a ver si veis el futuro en positivo o en negativo. O sea que bueno nos contáis en los comentarios y os vamos leyendo. Muchísimas gracias Cristina y bienvenida y todo a ti yo. Pues muchísimas gracias a ti María. Es un placer estar aquí y hoy vamos a hablar de diseño de futuros. Está muy relacionado con lo que hacéis porque bueno vosotros en si tenéis un propósito pero todo el NLP tiene una capacidad de cambiar el mundo a nivel exagerado. Entonces hoy vamos a ver cómo podemos trazar escenarios relacionados con diferentes tendencias y con diferentes sectores sistemáticas en los que el NLP tiene mucho que decir. Como decía María os hemos dejado una pregunta que se llama el Fuego de Polak sobre cómo veis el futuro. Esa primera pregunta es si lo veis en positivo o negativo y ellos vamos a pedir que os mojeis. También puede ser un intermedio yo que soy gallega y él depende pero lo veis en positivo o negativo y a partir de ahí vendría una siguiente pregunta y es ¿creéis que podéis hacer algo porque el futuro sea distinto? Mi respuesta es que sí. El futuro es positivo pero tenemos que trabajar en que así lo sea. Venimos en un escenario que seguro que suena mucho el buca que hablábamos antes del covid. Una etapa muy divulgada en incertidumbre, mucha ambigüedad donde la toma de decisiones adelantaba que podrían pasar cosas pero había un cierto estatus cúbico después de una inestabilidad económica de enciernes de determinados conflictos que todavía no se habían producido a nivel geopolítico. Luego venía esa sensación de ansiedad, de incomprensión, esa permacrisis que experimentábamos después del covid. ¿Qué está pasando? No sabemos muy bien cuál es el horizonte que vamos a enfrentar y empiezan a ocurrir cosas que no pensábamos que podrían ocurrir, como es el conflicto en Ucrania, como por supuesto fue el covid y todo eso tiene un ámbito muy negativo como hablábamos antes de elegir esa visión. Pero también hay una opción positiva que es la mirada de que tenemos que movernos hacia fenómenos abductivos, tenemos que prestar más atención a la liminal, ser conscientes de lainterconexión de lo que nos rodea, de que estamos en un mundo en vibración y donde hay muchas oportunidades emergentes. Desde luego la certidumbre es un tema del pasado, así que a nivel financiero podemos seguir haciendo forcas, podemos seguir haciendo esas predicciones que nos permiten tener objetivos acortos en las empresas, pero tenemos que ampliar los mirados, tenemos que empezar a pensar ciertas oportunidades que van a surgir y a día de hoy son emergentes. Algunos apuestan por lo que ahora parece un futuro lejano y Elon Musk, sabéis que tiene Neuralink, sabéis que tiene Space X, comprado de X, antes Twitter y es una persona con una visión totalmente diferente y exponencial de lo que es el mundo. También tenemos lo contrario que le ha ocurrido a Blockbuster o a Kodak que no ha sabido ver los cambios que se abecinaban, se acomodaron en su situación y eso supuso que no pudieran adaptarse a los tiempos. Pero la realidad es que deberíamos trabajar en ambas miradas con esa ambidestreza que nos permite un crecimiento sostenible, es decir, tenemos que seguir fomentando los negocios, las realidades que tenemos entre manos, pero tenemos que reinventarnos este lugar. Los ciclos de innovación además estamos viendo que cada vez son más cortos y este nuevo ciclo que tenemos ahora está muy volcado en la inteligencia artificial, las capacidades de conexión nos prometen otro mundo de IoT, de robotización, vamos hacia una industria 4.0, vamos hacia un cambio de era. Y eso obliga que tanto las empresas como los organismos como incluso nuestra visión de preparación profesional tenemos que trabajarla en tres orízoides. Nos propone McKinsey un modelo, un modelo de madurez actual, un modelo de crecimiento rápido y uno de negocios emergentes. Entonces tenemos que saber convivir, invirtiendo a nuestro tiempo y esfuerzo en esos diferentes horizontes. Lo cierto es que con esta otra versión que os enseño de Blizzard los horizontes no son abruptos, todas las disrupciones que van teniendo lugar a veces son aprovechables en etapas tempranas sin que hayamos todavía enfrentado ese salto trascendental en el cambio de horizonte. Y aquí veíamos esa opción del tercer horizonte donde nos vamos ya a más escenarios del diseño de futuros. No es la agilidad del presente, no son las metodologías en startup de empezar a mover negocios en un futuro cercano, sino en cómo podemos mirar, elevar la mirada un poco más allá. El futuro también es muy amplio, no es lo mismo pensar en cinco años en diez que en 30, pero esos futuros, esa mirada nos van a informar sobre cómo debemos innovar y qué estrategias debemos tomar. Y no es solo arte, no es solo diseño, no es solo estrategia, sino una mezcla de todas estas combinaciones y disciplinas que van a hacer que podamos repensar cómo es nuestra realidad. Aquí os presento a Jim Deitor, que es un artista del mundo de los futuros. Seguro que a todos os apetece muchísimo ir a Hawaii a hacer surf, pero si vais además tenéis que ir a visitar la universidad, que es un elemento fuera de serie en términos de perspectiva estratégica. Pues este hombre Jim Deitor nos propone tres leyes del futuro. La primera, y me podéis decir eso a mí lo sé yo, que el futuro no se puede predecir porque el futuro no existe. Da igual que contratemos a los 30 mejores futuristas del mundo, que metamos un montón de inversión en modelos de predicción, porque luego suceden cosas que hacen que esa realidad no tenga lugar. Entonces, podemos tener ciertos elementos de suponer escenarios, pero nunca vamos a predecir realmente lo que va a pasar. Además que existen multitud de futuros, igual que existen multitud de presentes. Nuestra realidad, aquí ahora mismo, incluso de las que de todas las personas que estamos aquí, es distinta, aunque tenemos ciertos criterios comunes que nos llevan a un escenario de vida parecernos. La segunda ley es que cualquier idea útil sobre el futuro tiene que parecer ridícula en el presente. Pensar cuando Tesla hablaba deinterconectar elementos por el aire, que pudieran transmitir información o pensar de nada lofles cuando nos hablaba ya de hacia dónde podía ir la inteligencia artificial. Y la última es que damos forma a nuestras herramientas y ellas nos dan forma. Más allá del escenario determinista que puede despertar esta tercera frase que, por cierto, es de McLuhan, lo que nos viene a decir es que nosotros, con las ideas que estamos teniendo en el presente sobre el futuro, estamos construyendo ese futuro. A veces parece una locura, la ciencia ficción. A veces, pues si pensamos en grandes pensadores del pasado que anticipaban ideas, que por cierto parecen ridículas, pues esas ideas han configurado nuestro ideario colectivo sobre lo que ahora es el presente. Y muchas veces lo que hemos vivido yendo mucho más allá de lo que se imaginaba, pero sobre esas bases. Entonces, hemos de jugar con muchos escenarios para trabajar visiones diferentes y no para adivinar qué es lo que va a ocurrir, sino para construir esos escenarios deseados. Porque tenemos unos, aquí sí vemos en este gráfico, que se llama el cono de Boris, tenemos un punto presente y de a partir de ahí empezamos a generar escenarios. Hay algunos que son más continuistas, más probables, otros que son los preferibles, otros son Wild Cards, que ahí, pues por ejemplo, tenés el efecto del COVID. Pero si pensamos que ocurren estos casos, podemos prepararnos y anticiparnos. Por ejemplo, la empresa de HL de Logística, cuando el volcán islandés cuyo nombre no se capaz de pronunciar nos dejó en el 2010 sin espacio aéreo y por tanto sin movilidad, fueron los primeros en reaccionar y tener una solución por tierra. ¿Por qué? Porque habían pensado en escenario que no era el del humo del volcán, pero sí que nos dejaba sin esa capacidad de desplazarnos por el aire. Y que, por ejemplo, con las tormentas solares es algo que muy probablemente pueda pasar si se caen los sistemas GPS. Entonces, ¿cómo trabajamos estas metodologías de diseño de futuros? Lo primero, observar, buscar. Buscamos señales. ¿Qué son las señales? Pues son elementos de la realidad que nos indican que algo está cambiando. Pues todas las noticias que vemos sobre IA de robotización, pequeños cambios, en la industria, de la medicina, incluso de la experiencia del paciente, todas esas noticias, ideas, artículos, aquellos elementos que nos elevan a una realidad distinta, los tomamos. Cuando esos elementos los juntamos y vemos que hay un patrón y ese patrón evoluciona, eso es una tendencia. Y con esas tendencias lo que haremos es evaluarlas de algún modo, ¿no? Pues oye, ¿cómo impactan en ese marco temporal que fijemos? ¿Y cómo de probables son que sucedan? Pues los configuramos y construimos escenarios para trasladarnos a esa realidad posible que va a tener lugar. Si estamos en esa realidad va a ser mucho más fácil construir prototipos. Y esto nos sirve también para encontrar esos propósitos, por ejemplo, en la utilización de los lenguajas y de pensamiento natural. Entonces, importante también, no solo tenemos que ver las tendencias de forma separada o la realidad de forma separada, sino que vivimos en un mundo con lo que hablábamos antes, que todo está interconectado. Aquí veis un ejemplo muy gráfico que es que si ponemos a determinadas personas a lado de un elefante uno solo ve la trompa, otro solo ve la cabeza y lo que está viendo uno es una piedra y el otro ve una serpiente y el otro, pues cada uno ve una parte del sistema y identifica como algo que no es. Sin embargo, si nos elevamos y vemos el conjunto, veremos el sistema. Y estamos en una época de problemas muy complejos y para atacar estos problemas complejos no basta solo con simplificarlos, sino con entender las repercusiones que cada elemento tiene en el siguiente. Vamos a ver una serie de tendencias, sobre todo para que alimenten el ejercicio que podáis hacer vosotros a posterior y de construir escenario y ver dónde podemos elegir prototipos y desoluciones utilizando el procesamiento de lenguaje natural en base a las tendencias que puedan construir esos escenarios. Vamos a por ello. Como os decía aquí tenéis un ejemplo para volver a recordar cómo se construyen y extendemos las señales y nos configura una tendencia. En este caso, por ejemplo, las pruebas que se están haciendo para temas de cáncer con CRISPR o el tema de impresión 3D de órganos, pues eso nos hace ver que hay una tendencia de ampliar la longevidad, pero en buen estado, el health span que le llamamos. Me diréis, Cristina, pero hay otras tendencias relacionadas. Una señal puede nutrir a diferentes tendencias y luego hay macrotendencias que en sí mismas incluyen a tendencias más chiquitas. Pero vamos a LIO. Primera tendencia que claramente está relacionada con el procesamiento de lenguaje natural y donde tiene cabida para casos de usos es la revolución de las máquinas. Pensar y hacer ya no es sólo cosa de humanos. En esto se engloban las inteligencias artificiales, inteligencias artificiales generales cuando lleguen. Robots que este año nos están dando muchas sorpresas, drones, enjambres de robots, los dilemas éticos, temas de entrenamiento, nuevas formas de trabajo, organizaciones descentralizadas, computación cuántica que nos va a afectar en las capacidades computacionales. En esta tendencia de la revolución de las máquinas, vamos a ver muchos avances en los próximos años. El propio procesamiento de lenguaje natural es resultado de esto, pero a la vez puede ser generador de nuevas evoluciones. Aquí como os decía, os dejo un par de señales y también tenemos que pensar que esta tendencia, lo que es el de pensamiento sistémico, tiene relación con nuestro tipo de tendencias, como puede ser la ciberseguridad, el que todo esté conectado, el futuro del trabajo. Una segunda es que todo es digital y está conectado. Estamos conectando la industria, nos estamos conectando a nosotros mismos, empezamos a tener gemelos digitales, empezamos a tener también sistemas descentralizados para traza de procesos. Entonces, esta es otra tendencia que claramente puede nutrir la información de los NLP y también puede ser utilizada para su evolución. La hiperpersonalización, ¿qué nos demanda cada vez más las personas? ¿Quieren cosas únicas a medidas e inmediatas? ¿Productos y servicios, atención, interlocutores y canales, uso de datos consciente e inconsciente? Muchas veces están usando nuestra información si que nosotros seamos conscientes, es verdad que se está regulando mucho en este sentido, pero todavía hay mucho por evolucionar y el que queremos todo ya, queremos que se generen las cosas en el momento. Esta hiperpersonalización va muy de la mano con la visión de agentes, que se construyan cosas a medida de nuestras necesidades y del conocimiento de lo que queremos. Esta parte de interlocución también conecta con el mundo NLP en gran medida. Luego viene toda la revolución de la realidad virtual y aumentada. Tanto le ovemos con gafas como implantes en los ojos, empezamos a ver también temas implantes cerebrales, luego está todo el mundo virtual de metaversos, toda la moda que ha habido con el tema NFTs, pues aquí también tenemos otra tendencia al alza en los próximos años. Aquí otra de cliente, la experiencia ante todo, la gente está maximizando la necesidad de experimentar más allá del posee y cada vez es más difícil sorprender a la gente. Entonces vemos como los temas de sharing, plataformas de uso compartido cada vez están más al alza, los modelos de suscripción, de renting, experiencias que sean distintas como pueden ser los viajes especiales, experiencias espaciales, incluso se están retomando rituales más relacionados con los sensorial, nuevas visiones de los psicotrópicos. Hoy leía por ejemplo también que la propia está generando nuevas drogas no sólo para temas de decoración sino también para temas de gestión psicotrópica. Entonces aquí el NLP de nuevo tiene muchasconexiones sobre cómo configurar esta experiencia y también esa parte anterior como veíamos de cómo hacerla única para las personas en concreto que demanden algo a medida. Luego está claro que los los hilos de industria se han roto en una marca puede estar comercializando productos que inicialmente no pudieran parecer de su ámbito. La SCASEP que es el gran elefante en la sala lo estamos empezando a vivir más como subida incremento de precios. Lo hemos visto con suministros básicos como puede ser la luz, lo estamos experimentando con el aceite pero es que esto va mucho más allá en unos años pues hay determinadas producciones como puede ser la de café, chocolate, etcétera que estamos muy acostumbrados a tenerlos a diario y que pueden ser prohibitivos en un momento dado. Y nosotros vivimos en una situación privilegiada pero hay mucha gente que ahora mismo está teniendo SCASEP de comida o de materia prima básica para su vida. Esto se conecta también a la SCASEP con los nuevos materiales igual que desaparecen opciones aparecen otras nuevas pero también muy importante con el concepto de la nueva abundancia. La gente está empezando a pensar de forma distinto, consume como piensa y exija las empresas que producen como diga. Entonces aquí está todo lo relacionado con la sostenibilidad, con la economía de los valores y con los compromisos SG más allá de las regulaciones desde el comportamiento. Y la vuelta a los orígenes, la gente está apreciando más lo artesano y la natural. Aquí es casi la contratendencia, la parte tecnológica de cómo la gente quiere mantener cierta parte humana de tanto de creación, de diseño que también surgen los nuevos artesanos digitales que puede ser el diseñador de los Amid Yurlings. Pero independientemente de eso hay una clara tendencia de que la gente quiere mantener ese vínculo con tanto lo que son tradiciones como también con procesos naturales, con comida natural, con las garantías de que no produzcan daños en su organismo. Desde luego otra de las grandes preocupaciones es la seguridad, tanto la física como lo virtual. Lo hemos visto con las problemáticas que hay de desastres naturales, pero también elementos de geopolítica y por supuesto todo el tema de ciberseguridad que conecta también con la digitalización y con el uso de nuestros datos, el que realmente tengamos la conciencia de que nuestra identidad está siendo protegida y no sobreprotegida. Aquí hay muchas maneras de entender y de regular esta la visión más europea o la base americana, pero desde luego va a ser una de las grandes filones en los próximos años. Y por supuesto la longevidad, vemos como las tecnologías CRISPR que estaba intentando no utilizarlas demasiado más allá de la edición genética, más allá de dónde era estrictamente necesario. Ahora empezamos a tener aprobaciones a finales del año de 2023, tanto en Estados Unidos como en UK, como a nivel europeo de terminar los tratamientos de enfermedad hermanas a través de esta edición genética, pero imaginaros todas las capacidades que tenemos de edición genética con los grandes científicos que tenemos si las aumentamos con toda la capacidad de la inteligencia artificial. Aquí veis que hay un montón de casos de uso sobre los que podría trabajar del procesamiento de lenguaje natural. Con estas tendencias, ahí podéis hacer el ejercicio de poner un horizonte temporal, por ejemplo 2030, y decidir cómo creéis que van a impactar y cuál es la probabilidad de que sean una realidad en ese momento. Y a partir de ahí podéis construir escenarios, os podéis quedar con un par de ellas, ahora os digo cómo lo haríamos, y decidir un escenario o de continuidad, o sea que las cosas se llaman son las iguales, de disciplina, que tenéis el ejemplo del COVID, la realidad supuso que seguíamos haciendo determinadas cosas, pero tenemos que estar recluidos en casa. Colapso, que aquí no lo tenemos en nuestra realidad actual, pero si le preguntamos a un ucraniano sí que ha vividoun colapso a corto plazo, y luego está la transformación, que es ya una revolución industrial que hace que vivamos una realidad totalmente distinta. Entonces eligiendo el tipo de escenario que queráis, aquí yo por ejemplo os he hecho un ejercicio de cómo pasar de tendencias a escenarios, quedándonos con dos de las tendencias, el que todo es digital y la escasez. Pues aquí como veis están enfrentadas, o sea que todo es digital o que todo pasa físico, y luego en cuanto a la escasez es que hay restricciones o que nos ponemos a gastar como lucros. Entonces si vamos cogiendo los cuadrantes, decimos hoy todo es digital y hay restricciones, pues vos con unos nuevos patricios. Hay restricciones y volvemos a lo físico, pues tendremos que volver a aprender los procesos que tenían nuestros abuelos. Que todo se vuelve físico y seguimos gastando, pues es el centro comercial de los años 90, ¿no? Y que todo se vuelve digital y que seguimos gastando como locos, pues eso será intratable. Pero por ejemplo si nos quedáramos tendríamos que elegir uno de los escenarios y sobre él construiríamos un prototipo, que es cómo el procesamiento de lenguaje natural nos puede ayudar a, o sea, cómo impacta en ese escenario, ¿vale? Que impacto tiene, que oportunidades levantan, que riesgos levantan y con eso podríamos buscar soluciones utilizando esta tecnología. En este escenario para tener más detalle de qué consiste, qué impactos, qué oportunidades, qué riesgos surgen, deberíamos plantearnos los desde diferentes puntos de vista, que este es el STIP V Framework que le llamamos aquí, que es desde el punto de vista social como será ese escenario desde el punto de vista tecnológico, económico, medioambiental, político ilegal y qué valores juegan en ese escenario, un papel fundamental. Entonces la idea es, como habéis visto, partimos de un punto de presente con esas tendencias que os contaba, que os podéis quedar con dos a hacer ese escenario de ponerlas enfrentadas y elegir uno de los escenarios, en ese escenario construir cómo es la sociedad, tecnología, economía, etcétera, etcétera y pensar impactos del procesamiento de lenguaje natural hay oportunidades y de esas oportunidades como lo solucionaríais. Y con eso os podéis traer ideas al presente de backcasting, de qué elementos puede empezar a construir ahora para que, si se da ese escenario o uno parecido, como podemos tener una idea o de negocio o una idea que ayuda a la sociedad utilizando ese procesamiento de lenguaje natural. Bueno, ahora os dejo esos cinco minutillos para que comentéis si queréis alguna pregunta o lo que sea. Aquí os dejo un link para que, si os ha interesado el tema que tenéis ahí mi libro para continuar leyéndolo. Y nada, veo por aquí que alucinante martínez nos dice que es negativo por la pérdida de la revancia del AUE. Deberíamos reforzar iniciativas con alto valor moral y no tanto económico. Perfecto. Entonces, alucinante martínez, es negativo y la pregunta es ¿crees que puedes hacer algo por cambiar eso? ¿Cómo refórtamos esas iniciativas con alto valor moral y no tanto económico? Lo dejamos ahí para que levantas ese riesgo o esa oportunidad. Pues a ver también si entre todos, si algún colega que esté escuchando se le ocurre y levantáis alguna iniciativa para promover que la Unión Europea siga siendo relevante. Con China es una situación un poco distinta. Sabemos que ahí el tema de datos tiene un batiz distinto. Y nada, mira, sí que se puede. Pues si se te ocurra una idea estaré deseando escucharla que me la cuentes y leamos a alguien más. Total. Una cosa que es solo, puntuación. Cuando hagas preguntas puedes hacerlas, obviamente, encantada de que hablas con la gente. Tarda un poquito entre que llegan y después se manda el mensaje para que se oye un poco de delay. No hay problema. Hay aquí otra que dice "Roberico, hola, hola, Roberico, gracias. Tuvisos que apostar por una única tecnología para el 2025, cuáles elegirías". A mí me lleva interesando mucho desde enero losrobots. Como integramos la inteligencia artificial en robots, pero que no necesariamente son Android. Veo esa siguiente evolución tanto en la parte industrial como incluso en la parte de consumo. Y luego me gusta mucho las redes neuronales organoides que utilizan temas de los propios músculos o las neuronas del cerebro o las neuronas de motricidad para generar capacidades entrenables. Entonces esa parte que es como muy emergente, pero tiene una parte muy muy chula y todavía no he escuchado mucho de ella. Leonardo, gracias Apilionardo. Me encantó algún te diste y la presentación de Cristina. La verdad que a mí también. Muchas gracias. Es muy optimista. Yo sí que es verdad que soy una persona bastante optimista en todo. Obviamente no, no se me ha hecho. Pero creo que es importante. Me ha gustado mucho tu visión y bueno, la verdad, muchas gracias por reforzarle también con un desimplimista. Ah mira, te vuelvo a preguntar a mi delante. Le has caído bien. Soy un desimista pero realista también. Es decir, no creo en los mundos ideales. Creo que hay que ir haciendo pequeños cambios. Creo que hay que tener grandes objetivos, pero que ir teniendo pequeñas metas. Y sobre todo hay que enredar a mucha gente para hacer los cambios. Pues bien, es un bueno... Ah mira, otra pregunta de Ramón. La gente se va animando. Claro, estupendo. Mi problema con esto es que el tiempo entre que aparcen las primeras señales y que llegan al futuro es muy corto para mi capacidad de construir. Necesito detectar las señales de las señales. Bueno, al final es buscar las mejores cosas un poquito más emergentes. No tiene más riesgo, menos probabilidad de que ocurran, pero quizás hay más oportunidades de encontrar mucho. Porque es verdad que hay mucha gente trabajando en estos temas. Pues si te pasa como que se te hago tan rápido, pues cambia un poquito el horizonte de las que sean probables. ¿Qué te parece la carrera de los huyanos de parámetros en los LNM? Si hemos llegado ya al pico, a lo mejor la envidia está aún por llegar. Yo creo que siempre que lo mejor está por llegar. Y la historia nos lo ha demostrado. Ahora bien, esto también tiene impactos. Tiene impactos de consumo de agua, tiene impactos energéticos, tiene impactos de que también tenemos que maximizar para que hacemos uso de este tipo recurso. Pero esto le pasaba a Bill Gates cuando estaba en su momento que necesitaba también capacidad para hacer sus pruebas antes y hacer ser mega rico con Microsoft. Entonces llegará, sí, que todo irá cogiendo su maquill, sí. También tenemos la paradoja de Gibbons, ¿no? Que cuanto más tenemos, más usamos y más queremos. Entonces ahí sí que pongo un poco de cabeza. Pues me parece un mensaje súper perfecto para terminar, que ya justo son en punto y nos vamos a ir a la segunda, aquí no, del día. Lo último, creo que Cristina, estás solo en LinkedIn, ¿verdad? Sí. Porque preguntan por aquí, José, si estás en Twitter. Efectivamente. El LinkedIn, sé que la tenéis, el QR, pues eso. Ah bueno, Cristina, vi la carrera, ahí está. Genial. Lánticas. Pues nada, muchísimas gracias, Crist, de nuevo. A vosotros. También invito a la gente que vea esta charla en diferido, porque sabemos que, bueno, no se escuchan desde muchos sitios del planeta, también la gente tiene diferentes responsabilidades. Entonces, si escucháis esto en diferido, también nos vamos a leer en los comentarios. Todo el mundo bienvenido a opinar con las dos preguntas. A ver si veis el futuro en positivo o negativo. Y también, si creéis que podéis hacer algo para influir en ello, ¿verdad? Eso es. Genial. Pues muchas gracias, Crist. Hasta la próxima y... [AUDIO_EN_BLANCO]
Cristina Vila Carreira
Estimación de la Severidad de la Depresión en Internet, Anxo Pérez @IRLab | #Somos600M
Hola a todos el mundo, bienvenidos de nuevo a el segundo día de Kinos de nuestro hackathon Somos 600M. Hoy os traigo dos experiencias súper interesantes, ya hemos estado hablando de prospectiva, de diseño de futuros con Chris Bila y ahora pues vamos a hablar de detección de depresión en internet, vale. Os vamos a recordar primero para la gente que ha un poco consistada del objetivo de nuestra iniciativa del hackathon Somos 600M, lo que queremos hacer es crear recursos abiertos de procesamiento de lenguaje natural en español y lenguas oficiales, el objetivo realmente es crear recursos que representen la diversidad de los 600 millones de personas hispanohablantes, que somos un montón. Entonces para eso hemos organizado un hackathon, tenemos también a disposición de las personas participantes, recursos, computación y también pues como creemos muchísimo la formación y creemos que es muy importante también pues organizamos kinos como las de hoy para pues dar a conocer diferentes aspectos del PLEN y diferentes aplicaciones, como puede ser aplicaciones con más valor social, un efecto social como podría ser la que vamos a presentar ahora mismo con Anshop. Os presento a nuestro oponente, Anshop Ereces un investigador postdoctoral del laboratorio de recuperación de información de la Universidad de la Coluña, ha defendido su tesis en 2024 y su investigación se centra en el desarrollo de modelos automáticos para la preventura de apoyo al jarnóstico y detección de riesgos para la salud mental en redes sociales. Por esto metimos utilidad técnicas de NLP, IR y ML para el desarrollo de modelos y data sets en este campo. O sea que nos va a hablar efectivamente de estimación de la seguridad de la depresión en internet, los dos modelos, cuáles son los recursos y bueno a ver qué nos cuenta la verdad que bueno le decía ahora que me parece un tema súper importante también sé que a mucha gente cuando estáis en nuestros jacatones os apetece tocar temas de salud mental entonces bueno muy importante está aquí no para hacerlo bien con con responsabilidad. Anshop todo tuyo ya está compartiendo tus diapositivas o sea que adelante bienvenido y muchas gracias. Vale pues muchas gracias por la presentación María pues como bien dijo María yo soy Anshop Pérez soy investigador del IRLAP de la Universidad de la Coluña y el tópico de mi tesis y lo que venimos haciendo en los últimos años en este laboratorio pues es aprovechar los recursos y los y los modelos para estudiar y analizar pues la estimación de la severidad de distintas enfermedades mentales en internet en esta en esta charla voy a centrar más sobre la depresión y voy a comentar cómo podemos aprovechar estos recursos pues para generar nuevos modelos y nuevos datasets de calidad para ayudar en esta problemática. Sin más dilación voy a empezar con la presentación voy a empezar introduciendo un poco y motivando el contexto de por qué creemos que atacar a este problema es tan importante bueno supongo que ya todos somos más o menos conscientes del impacto que suponen las enfermedades mentales en las personas aquí enseñó algunas estadísticas de acuerdo con la organización mundial de la salud más de 320 millones de personas actualmente parecen depresión además se estima que el 6% de la población ha cometido violencia autoinfligida es decir se ha cometido daño a sí mismo el 8% de las mujeres tienen desordenes alimenticios y hasta el 5% de los adultos son adictos al juego estos son algunos ejemplos de enfermedades mentales más comunes de hecho son las cuatro enfermedades que solemos tratar más en este laboratorio pero bueno esto se extienda un montón de diversos de diversos trastornos en esta charla voy a centrarle más sobre la depresión que la depresión es una de las mentales más debilitantes y en los peores casos incluso puede desencadenar en su libro además sabemos por evidencia clínica por por estudios una planta de identificación de la enfermedad es crucialpara reducir su impacto y sus futuras consecuencias y por último en este contexto las personas solemos considerar las redes sociales como canal de seguros para expresar nuestros problemas en el día a día y esas tendencias más habituales o todas en las personas jóvenes en los chicos y chicas jóvenes además existe amplia evidencia que ha demostrado que nuestro lenguaje la manera en que hablamos la manera en que nos expresamos el general los tópicos de los que hablamos son indicadores importantes de nuestro estado mental tanto para bien como para mal entonces en este contexto investigadores en los campos de recuperación de la información información retrieval en inglés inteligencia artificial machine learning y en el ep han identificado y han trabajado mucho en explorar marcadores lingüísticos para desarrollar modelos de atención en enfermedades mentales usando como fuente de datos las redes sociales a pesar de que se han obtenido pues modelos y resultados muy prometedores todavía existen brechas pues para integrar estos modelos en escenarios reales en escenarios clínicos donde realmente se puedan aprovechar y es el objetivo que todos estos investigadores quieren y queremos de todos modos hay los límites principales actualmente en el despliegue de estos modelos en el escenario reales el primero son límites relacionados con su generalización muchos modelos están entrenados en el desed que solo pertenecen a una red social solo pertenecen a un idioma y cuando transferimos estos modelos pues a otras redes sociales por ejemplo entramos un modelo en twitter intentamos probarlo en red o en facebook suelen fallar y su rendimiento suele bajar mucho y el segundo son límites de interpretabilidad todos estos modelos y todas estas ideas siempre son pensadas para que ser trabajadas con profesionales clínicos profesionales de la salud ya que estamos muy lejos de desarrollar modelos que puedan hacer un diagnóstico completo y claro ellos solos y muchos de los modelos actúan como modelos de caja negra en lo que es muy difícil interpretar pues todas sus decisiones entonces como objetivo esta línea de investigación se basa en el desarrollo de modelos y data sets basados en síntomas clínicos para identificar señales depresivas en las redes sociales por qué basados en síntomas porque es que modelos basados en síntomas bueno pues hay estudios recientes que han demostrado que basar las decisiones estos modelos en síntomas clínicos en práctica clínica ayuda a reducir estas limitaciones por lo tanto en esta presentación vamos a presentar trabajos donde hemos usado modelos basados en síntomas para mejorar la featividad de los modelos su interpretabilidad y también su generalización más en más concretamente pues los objetivos que buscamos es explotar el lenguaje basado he usado perdón en las redes para construir modelos computacionales que permitan detectar y estimar la depresión a través de estos síntomas en este contexto aplicamos técnicas dentro de los campos de recuperación de la información natural de un proces y en el edificio artificial para predecir la evidencia de síntomas depresivos y para esto nosotros nos aprovechamos de cuestionar los clínicos que son validados y que se usan en práctica clínica para diágenos de carneta de depresión como son el de depresión inventólios que vamos a tratar en esta charla antes de empezar a tratar los modelos y sobre todo los deitas específicos voy a introducir un poco el contexto de nuestro de nuestra investigación estamos muy relacionados con el fréngue la iniciativa de risque es una iniciativa que se celebra cada año dentro de la conferencia clef en la que los organizadores pues liberan distintas colecciones distintas tareas relacionadas con diversos trastornos mentales en nuestro caso nos vamos a centrar en la tarea de la depresión que viene a realizarse desde el año 2017 con presencia en 2017 2019 2020 y la edición del 2020 en el bd que es el cuestionario que nosotros usamos para explotar y entrenar y usarnuestros modelos pues incorpora síntomas estos modelos incorporan síntomas del bd que es un cuestionario clínico para permitir construir soluciones más transparentes y sobre todo más interpretables el bd está compuesto por 21 síntomas diferentes aquí muestro tres de ellos el síntomas acne, spécimis y falta de energía, los of energy y cada uno de estos síntomas tiene cuatro opciones posibles a responder en las que escalan estas opciones en términos de severidad por ejemplo para síntomas acne, para síntomas tristeza la opción cero es no me siento triste la opción uno es me siento triste la mayoría del tiempo en la opción dos me siento triste todo el tiempo y por último la más severa sería me siento tan triste o infeliz que ya no puedo aguantar entonces nosotros para crear nuestros data sets usamos como fuente de datos las colecciones de risk más específicamente las ediciones 19, 20 y 21 para construir nuestros recursos estos data sets tienen etiquetas, labels, entrenamiento por cada síntoma del bd a nivel de usuario esto que significa pues que por ejemplo tenemos un usuario de la plataforma reddit en la que sabemos que ha contestado la opción tres al síntoma pérdida de energía no tengo suficiente energía para hacer nada y tenemos esa información disponible en el data set y además también tenemos las publicaciones de los propios usuarios de reddit pues para este usuario tendríamos tanto la opción que respondió la opción tres como todas sus publicaciones que muchas de ellas evidentemente no van a estar relacionadas con el síntoma en cuestión bien entonces voy a empezar a hablar sobre nuestro primer trabajo basado en el desarrollo de data sets enfocado en síntomas clínicos que es el bd y c en este campo los data sets los conjuntos datos tradicionales en la depresión están compuesto de etiquetas de labels binarias a nivel de usuario es decir tenemos usuarios de control versus usuarios deprimidos tenemos todo el historial de sus usuarios de control y todo historial en las redes de sus usuarios deprimidos dependiendo de la de la red social y twitter etcétera sin embargo es importante construir data sets que cubren manifestaciones de síntomas pues para como decíamos anteriormente mejorar su interpretabilidad y el rendimiento de los modelos a nivel de sentencia que permitan crear colecciones de mayor granualidad y de mayor calidad pues es lo que hemos intentado realizar en el bd y c de y el este de y de ser promovio el desarrollo de modelos basados en marcadores de síntomas presentamos ese trabajo a finales de 2023 en la conferencia siga yar y aquí dejo un código QR el enlace para el data set por si alguien le interesa y quiere el charum ojo más y jugar con el con el propio de y de cien bd y cen contiene cerca de cinco mil sentencias anotadas y más de 40 mil sentencias de control manifestando síntomas depresivos y el data set cubre los 21 síntomas presentes en el bd de totalidad de ellos como decía antes nosotros siempre partimos de los data set de risk sin embargo estos data set tiene una cantidad de publicaciones muy grande que si queremos crear un data set anotado manualmente por humanos pues es necesario diseñar una etapa de retrieval de recuperación basada en el filtrado de frases candidatas que pueden ser más relevantes para cada síntoma entonces la fase en la fase de retrieval en este primer trabajo usamos las descripciones de las opciones como cuídes como consultas para seleccionar candidatos entonces por ejemplo tenemos el mismo usuario de antes que sabemos que ha respondido la opción 3 al síntoma pérdida de energía y nosotros usamos semántica en ese mantis rankings perdón elaboramos semántica en este con ese verde con sentes ver sobre el conjunto de frases es el mismo usuario y nos permitiría filtrar aquellas que están semánticamente más relacionadas con el síntoma es decir lo que consideramos sentencias candidatas para la posterior etiquetación en cuanto al esquema de notación nosotros usamos un equipo de tres anotadores expertos conconocimientos en el área para notar estas sentencias candidatas los tres anotadores examinaron todo el conjunto de datos y organizamos sesiones de formación con ellos más específicamente para etiquetar entre relevante y no relevante entre sentencia positiva y narrativa consideraron la siguiente pregunta el usuario habla primera persona y la frase ofrece información sobre el síntoma si es así la frase se considera relevante es decir para equilibrar la cantidad y calidad de las sentencias candidatas nosotros realizamos experimentos pilotos en las que participaron estos anotadores y al final el proceso dio lugar a un brail de simulquius coseno de 0 6 a la hora de hacerlo semánticos ahora a la hora de hacer la búsqueda semántica y también a las primeras 750 frases clasificadas para cada síntoma para construir el data ser final cada frase se consideró positiva por mayor y votin es decir si tenemos tres anotadores si dos de ellos consideran una frase como positiva se va a considerar en el de y de hacer final en el recurso final como positiva y organizamos las frases en tres grupos frases positivas frases clasificadas como negativas y frases de control que fueron obtenidas de manera random de rédita al final el interanotación agreement de la grime entre los anotadores fue cercano al 85 por ciento lo que supone un buen agreement un buen acuerdo comparado con trabajos similares en el campo en esta en esta tabla muestro las principales estadísticas de bdc en la primera en la primera fila podemos ver la media de agreement entre los entre los anotadores y podemos ver que para la mayoría de ellos está cercana al 80 por ciento o incluso supera esos 80 por ciento en las últimas tres filas podemos ver el número de sentencias positivas para cada síntoma el número de sentencias negativas y también el número de sentencias de control aquí cabe destacar que los expertos anotaron sólo como relevantes el 17 por ciento de las frases del grupo de candidatas lo que refleja también cómo difícil es encontrar evidencias en redes sociales y cómo difícil es esta tarea aquí muestro algunos ejemplos para que se entienda un poco mejor de frases del bdc asociada con el síntoma problemas de sueño en el primer bloque en las frases etiquetas como cero vemos que estas frases sí que son semánticamente relacionadas con el síntoma en este caso problemas de sueño pero vemos que no muestran ningún riesgo como por ejemplo la primera frase que simplemente estoy apostado en mi cama y todavía lo siento sin embargo las frases del bloque de abajo las frases relevantes sí que vemos riesgos asociados con el síntoma por ejemplo la última fila vemos que las frases sólo tengo energía para comer y dormir una vez construido el ley de ser lo primero que hicimos fue un análisis a nivel emocional y a nivel sentimental de los tres grupos de frases es decir el grupo positivo del grupo negativo y del grupo de control para esto usamos el conjunto de emociones de prud chik cubiertos en el emoción lércico en rc en el que trata ocho diferentes emociones y dos sentimientos que es sentimiento positivo y sentimiento negativo y en esta análisis lo que hicimos es contar el número de frases para cada uno de los grupos positivo negativo de control que tenían al menos un término que ejemplificaba cada uno de los grupos emocionales y sentimentales en este caso vimos dos patrones distintos en los síntomas del bdi en los síntomas depresivos el primer patrón se refleja en la primera fila donde vemos que para las sentencias positivas el nivel de emocionalidad y el nivel de sentimiento mentalidad es mucho mayor que para otros dos grupos sin embargo para otros síntomas como por ejemplo el síntoma de indecisión que vemos en la fila abajo esta diferencia no es tan significativa de hecho se entiende mucho a enrelazar y no vemos grandes diferencias de emocionalidad y sentimentalidad entre los grupos de sentimientos a continuación también elaboramos experimentos de clasificación para evaluar el impacto del data se nos centramos experimentosen dos tareas principales una detección de síntomas una clasificación pura y dura y también la generación generalización de los modelos hacia síntomas de otras enfermedades para estos experimentos usamos modelos basados en transformers formulados como modelos de clasificación más concretamente usamos ver de mini que es una versión un poco más ligera de ver m ver que significa mental ver que es un ver pre-entrenado previamente en un montón de colección relacionadas con poros de salud mental en las redes sociales y también te cinco que es un modelo text to text en el que lo formulamos para que formó que escupiese etiquetas de true o false dependiendo de si el síntoma la frase era relevante hacia el síntoma y por último para tener un poquito también de de contexto de cómo funcionan bien estos modelos basados en transformers incluimos feriaturas textuales más específicamente un tefe y de f y un luik que es basado en un lexico en psicológico bien pues viendo la primera la primera tarea que se basan en la detección de síntomas es decir la tarea de los modelos es determinar si una frase es relevante o no para un síntoma mostran resultados en esta tabla que la formulamos tarea como una clasificación binaria es decir la sentencia es relevante hacia el síntoma o no y es necesario remarcar aquí que en todos los experimentos siempre incluimos cinco veces más frases de control que positivas ya que en un entorno real en las redes sociales siempre es más habitual encontrarse sentencias que no van sobre el síntoma que positivas viéndolef uno de los modelos podemos ver que los modelos basados en transformers han obtenido un rendimiento mejor que los basados en feriaturas textuales clásicas más específicamente el modelo verp entrenado previamente con con corpus relacionado con mental health pues vemos que ha sido el que ha tenido mayor mayor rendimiento para poner un poco más en contra de los resultados también muestro aquí las matrices de confusión para cada uno de los modelos y vemos que los modelos basados en transformers el el valor de true positives de sentencias que realmente eran positivas es muy alto cercano casi siempre al 100 por 100 y el valor de falsos negativos de falsos negativos es muy pequeño en el segundo experimento para cenado con la generalización de síntomas nosotros evaluamos la capacidad de generación de nuestros modelos entrenados en vez de isen a síntomas de otros trastornos para esto usamos un dita 7 externo y sin que cubre síntomas y sentencias de otros de otros de otros siete diferentes trastornos este día se publicado en la conferencia mnlp de 2022 e hicimos una evaluación 0 es otro esto que quiere decir pues que básicamente usamos nuestros modelos exclusivamente entrenados en veriz en y los estemos directamente en los síntomas de todas estas enfermedades aquí podemos ver que los modelos basados en transformers generalizaron muy bien ya que bien los síntomas de otras enfermedades que no habían visto en proceso de entrenamiento siguen teniendo una precisión bastante alta sin embargo aquí sí los modelos basados en criaturas textuales clásicas sí que baja mucho su rendimiento en la última fila mostramos la media de rendimiento por enfermedad y vemos que como es lógico el mejor el mejor rendimiento se obtiene en la propia enfermedad que es depresión pero que hay otras enfermedades como por ejemplo ansiedad o bipolar disorder en la que vemos que los rendimientos y la generalización es bastante buena sin embargo en el último en el último en la última enfermedad como es problemas alimenticios vemos que la precisión es sólo de la mitad de nuestros modelos en cuanto a la media por cada método vemos que a nivel de realización el método que mejor funciona fue de 5. Vale, he visto un poco esto voy a ver nuestro segundo trabajo en la que probamos a usar modelos comerciales es decir large language models como asesores de marcadores psicológicos para ver si nos podían ayudar en la notación y en elproceso de construcción de data sets en este domingo. Como resultado de este segundo trabajo creamos un nuevo ADICASET el ley de set de presín en el que este trabajo estudiamos como los lm's pueden ayudar en el desarrollo de estos modelos de nuevo muestro aquí el código QR por si alguien quiere está interesado en trabajar con el ley que se para tener las guías de cómo acceder a ello. En ese trabajo exploramos la capacidad de los lm's más específicamente gpt4 y chat gpt para notar datos complejos relacionados con la salud mental. ¿Por qué? Bueno pues porque una de las principales ventajas de usar los lm's es su capacidad para procesar grandes cantidades de datos entonces examinamos y exploramos estudiamos un rendimiento para comprender hasta que punto estos modelos pueden reproducir el comportamiento humano y podrían actuar como asesores para etiquetar colecciones en este campo. El de presín data set proviene de una tarea nueva de risk que básicamente consiste en realizar rankings de frases indicativas de la presencia de síntomas crínicos es una tarea introducida por primera vez en 2023 y de nuevo de presín al igual que nuestro recurso anterior abarca todos los síntomas presentes en el vd2. Las frases proceden de red de nuevo y se organizan una colección al estilo 3 donde había un conjunto de 4 millones de frases provenientes de más de 3 mil usuarios únicos de red. En cada participante de risk cada laboratorio presentó 21 rankings de frases ordenadas por elemancia de creciente, es decir que cada ranking tenía en la primera posición del mismo la frase que ese método consideraba más relevante respecto al síntoma y cada laboratorio podía presentar hasta 5 variandos es decir hasta 5 métodos y los rankings tenían hasta 1.000. Entonces en este nuevo recurso obtuvimos las frases candidatas aprovechando estos métodos teniendo en cuenta solo las 50 primeras frases ranqueadas de los modelos propuestos un punto total de 37 modelos diferentes propuestos. De esta manera la principal diferencia con el proceso de recolección de sentencias candidatas respecto a nuestro trabajo anterior es que venían de 37 modelos distintos en medio de unico solo y las frases tendrían mucha más variedad y sería mucho más rica, mucho más ricas en diversidad. Aquí de nuevo muestro algunos ejemplos de frases para el síntoma pérdida de energía, pasa un poco el mismo patrón que con veíamos en BDISEN en las frases con relevancia a cero vemos que sí que semánticamente están relacionadas con el síntoma con en este caso pérdida de energía pero no muestra ningún riesgo por ejemplo aprender nuevas ideas con su energía pero construye conexiones neuronales en cambio la sentencia que tiene una relevancia como uno vemos que si realmente hay un riesgo asociado a la persona que lo está escribiendo por ejemplo en la primera frase de la relevancia uno es incluso lavar los dientes es demasiado cansado para mí ahora mismo. En este nuevo trabajo el proceso de notación de nuevo el concepto de relevancia es el mismo una frase solo debe considerarse relevante si proporciona información sobre el estado del individuo relacionado con el síntoma del BDI2 y en ese trabajo diseñamos guidelines y diseñamos guías para guiar el proceso de evaluación. Estas guidelines se proporcionaron tanto a los anotadores humanos y también para realizar in context learning de los LLMS así podríamos hacer una comparación justa ya que el conocimiento previo a nivel de guías de cómo anotar de los humanos y los LLMS sería el mismo y en ese trabajo seleccionamos a tres evaluadores humanos con diseta formación para ver cómo podría influir su conocimiento respecto a la notación y respecto a los LLMS. En este caso usamos un profesional del clínico, un estudiante predoctoral con conocimiento en el área y un postdoctoral también con conocimiento en el área. En esta diapositiva pues muestro un poco las guidelines que básicamente explican el objetivo de esa tarea el concepto derelevancia y una frase con ejemplos para las categorías positivas y negativas para cada síntoma. Una vez hecho todo este proceso el gran tru las flaves verdaderas siempre se han creado en base a las anotaciones de los humanos nunca de los LLMS y creamos dos clases de gran tru deítases el primero que llamamos consensus donde las entecias relevantes son consideradas por los tres humanos es decir una frase solo es considerada relevante si los tres anotadores la consideran relevante y de nuevo un majority voting donde al menos dos humanos consideran la sentencia como relevante. Entonces podríamos decir que consensus es un poco más estricto a la hora de considerar una sentencia relevante y mayor y es un poco más tiesi. En esta diapositiva muestro el número de sentencias y también el acuerdo la agreement de las anotaciones por síntoma si vemos el primer bloque de la tabla vemos que el número de sentencias está cercano etiquetadas perdón está cercano al mil para cada uno de los síntomas y de nuevo el número de sentencias relevantes de todas esas mil anotadas es muy pequeño en este caso en este trabajo puso lo del 11 por ciento lo que de nuevo refleja cómo difícil son estas tareas también aquí mostramos el agreement cómo de acuerdo estuvo el modelo GPT4 respecto a los deitas ex al consensus y majority aquí sólo mostramos GPT4 y no es GPT porque fue el que obtuvo mejor rendimiento y vemos que el porcentaje de acuerdo con los humanos con los deitas es bastante bastante alto sobre todo en el en el tema y que es un poco más flexible para la mayoría de síntomas está superior la delimiento superior al 80 por ciento de las frases en los últimos tres lo que se la tabla lo que muestro es una comparación a pares entre el lm gp t4 y cada humano de manera individual respecto a los juicios de los otros dos humanos entonces aquí podemos ver una comparación individual entre cada humano y gp t4 para todos los casos el uno a los humanos siempre han tenido mejor de acuerdo con los otros dos humanos con el resto respecto a gp t4 con sólo una excepción para el síntoma pesimismo el gp t4 estuvo más de acuerdo con los humanos que el propio estudiante predo en esta segunda tabla muestro estos valores para el resto de síntomas que más o menos si en el mismo patrón y en la última columna muestro la media de todos los resultados y viendo la media entre la agreement de cada anotador individual respecto a gp t4 vemos que los humanos siempre están un paso por encima respecto al lm en esta segunda tabla muestro en mayor detalle por el resultado de este acuerdo de relevancia entre los anotadores humanos y los osl lm en este caso en la primera fila chat gp t y en la segunda fila gp t4 viendo un poco estos resultados lo que podemos ver es que primero me le dejan con sensus chat gp t casi acierta a obtener todas las entencias relevantes del corpus de hecho viendo esta mantiene confusión vemos que acertado a nivel de relevancia en 2358 sentencias y sólo ha dejado pasar no ha pasado por su filtro de relevancia 113 de ellas y gp t4 pues ha recuperado como relevantes 2296 y sólo ha dejado escapar digamos 175 el principal problema de estos modelos tanto de chat gp t como gp t4 que vimos en este escenario es que tienen a sobreclasificar las sentencias como relevantes por ejemplo gp t4 de las del total no relevantes 4.755 las etiqueto como relevantes cuando en realidad no lo era este patrón se se ve también en mayor y lo que pasa que mayor tiene este caso pues hay más entencias relevantes porque son de este un poco más un poco más flexible en cuanto a la comparación entre los modelos usando una medida de acuerdo de agreement cogen kappa aquí sí que vemos un poco más a diferencia entre el rendimiento de los modelos donde gp t4 está un peluño por encima de chat gp en base a estos resultados y en base analizando todos estos agreements pues los resultados dan pie a proponer estrategias híbridas de etiquetado ya que los lm en este caso son mejoresidentificando sentencias marcadas como relevante y en nuestro escenario podrían actuar como filtro previo para eliminar sentencias no relevantes del pul total de sentencias del conjunto total de sentencias candidatas a etiquetar por ejemplo en nuestro caso si hubiéramos usado gp t4 de primeras podríamos haber reducido el trabajo humano un 68 por ciento eliminando la necesidad de anotar 15 mil sentencias a continuación vuelve a un poco de las conclusiones y trabajo futuro que tenemos pensado en base a estos dos a estos dos artículos que expuesto como conclusiones hemos construido dos recetas de antrados de síntomas que incluyen flases frases relacionadas con los 21 síntomas del bdi 2 en principio en el primer trabajo por lo menos por lo menos bdi sen revelando diferencias lingüísticas y emocionales y la capacidad de clasificación de estos moderos y también evaluamos el potencial de los lm escoma anotadores en este ámbito obteniendo resultados bastante prometedores a pesar de que aún queda mucho más gente mejora para considerarlos y que no afecten a la calidad de las de las colecciones como trabajo futuro tenemos pensado a dar nuestros enfocas pues a otros cuestionados de depresión a otras enfermedades hacia distintos lenguajes en línea con la con la filosofía y con la idea de somos en el ep estamos actualmente trabajando en colecciones de redes sociales y comunidades disponibilantes y también desarrollar modelos text to text y lm es opensource que ofrecen explicaciones fíables para detectar no sólo detectarse también explicar por qué han decidido que etiqueta esa frase como relevante la presencia en la presencia de síntomas de presencia y eso es un poco todo y si te alguna pregunta pues estoy encantado de responder muchas gracias a sancho por la presentación la verdad que bueno súper bien explicado se nota que lo tienes muy bien trabajado de la desis y tal me ha encantado y además me quedo con con esto que dices al final de los trabajos futuros o sea que si podemos ayudar con cualquier cosa aunque sea sólo darle visibilidad a lo que hagáis yo encantadísima porque ya te decía al principio realmente me parecen aplicaciones super importantes no de del del pln o sea que bastante alucinante martínez también le parece súper interesante y que se ha explicado muy claro no sé si lo estás leyendo genial pues nada además el tiempo perfecto media ahorita nada sin más ninguna pregunta lo dejamos por aquí ya también compartí los los enlaces que compartiste en QR pues acaso era más fácil para la gente así que muchas gracias gracias (V constitucional 哥 )
Anxo Pérez
¿Cómo anotar corpus lingüísticos para entrenar LLMs? Marta Guerrero @IIC | #Somos600M
Ahora todo el mundo, hoy vamos a hablar de la creación y anotación de corpus lingüísticos para el entrenamiento de LLMS. Como sabéis, como parte de la iniciativa de somos 600M, queremos crear recursos abiertos de profesamiento de lenguaje natural en español y lenguas oficiales que representen la diversidad de las 600 millones de personas que hablamos en español. Para ello hemos organizado un hackathon y hemos puesto a vuestra exposición de nuestros recursos para crear bases de datos y entrenar LLMS. Y justo hoy vamos a hablar con Marta Guerrero de efectivamente cuáles serán los trucos o cómo serían algunos ejemplos de creación de estas bases de datos. Antes de comenzar la charla voy a comentaros muy brevemente otro de los objetivos que tenemos en la comunidad y que de hecho también está muy relacionado con la charla de hoy. Bien, una de las preguntas más comunes en el Discord de somos en el LP la verdad es que recomendemos para ser mejor modelo para el español. Y el problema es que no sabemos por qué no tenemos una leaderboard todavía. Entonces lo que necesitamos es una leaderboard abierta de LLMS que nos permita estandarizar cómo evaluamos y cómo podemos comparar nuestros modelos. Ahora mismo lo que pasa es que en general cada equipo tiene su propia manera de evaluar pero si queremos medir el avance de la I en español o en lenguas oficiales, si queremos incentivar una competibilidad sana y también probar la variedad de nuestros modelos, lo que necesitamos es una manera pública e imparcial de evaluarlos. Entonces bueno hemos decidido crear en comunidad la primera leaderboard abierta de LLMS en español en lenguas oficiales. ¿Cómo podéis colaborar? Hay dos opciones o validando tradiciones del inglés al español de los benchmarks más famosos y estamos os organizando estos esfuerzos con aquí la hi-face, os dejo ahí el enlace si queréis echarle un vistazo. Y la otra opción es si ya tenéis corpus de evaluación pues los podéis donar como ha hecho muy amablemente el equipo de lice y justo hoy pues Marta nos va a explicar un poco cómo han creado estos corpus. Os presento a Marta, Marta bienvenida, muchísimas gracias por venir. Marta es la directora técnica en business and language analytics donde se encarga en el IIC, donde se encarga de llevar el grupo de lingüestras computacionales y de liderar proyectos de procesamiento de lenguaje natural en el IIC como ya ya he dicho. Tiene un master en lingüística general y es licenciada en lingüística y filología hispánica por la Universidad Autónoma de Madrid. Desde hace más de una década lidera proyectos de PLN en el IIC entre los cuales pueden destacarse los proyectos de clasificación automática de textos, de detección de entidades y de análisis semánticos. Además ha participado en el desarrollo de Río Oberta, el modelo lenguaje para el español creado en el IIC y también forma parte de la Junta Directiva de la Sociedad Española para el procesamiento de lenguaje natural. O sea una persona increíble, lingüística computacional increíble para contarnos más sobre cómo podemos anotar cortos lingüísticos para crear nuestros propios LLM. Entonces bueno, sin más dilación Marta, muchísimas gracias de nuevo, bienvenida y comparto todos los días en Tivoli. Muchísimas gracias María por tus palabras, muchísimas gracias por la invitación, es un placer estar aquí y que bueno pues desde las distintas partes del mundo pues podamos compartir nuestra experiencia en la creación de corpus y en la creación de modelos del lenguaje. Voy a contar el objetivo es contar bueno pues cómo nosotros hacemos corpus, cómo los diseñamos sobre todo, también voy a hacer una introducción un poco breve de que es lo que hacemos en el instituto y por qué hacemos estos corpus anotados. Bueno en el Instituto de Ingeniería del Conocimiento pues solemos tener una aproximación muy enfocada a generar modelos de lenguaje en español, tanto understanding, de comprensión como generativos. Ya sé que buenopues los modelos de comprensión no están tan de moda pero sí que son muy útiles y funcionales para tareas específicas y muchas veces esas tareas tienen que ver con clasificación de contenidos, detección de entidades, incluso detección de emociones o sentimientos, esas tareas normalmente pues se puede usar un modelo generativo pero funcionan mejor con un modelo de comprensión. Nosotros tenemos un modelo generado, entrenado que se llama Rigoberta que es lo que veis aquí en el simbolito de la guitarra y eso es nuestro modelo del lenguaje understanding digamos en español. Pues como como os he dicho pues funciona mejor para esas tareas porque está específicamente diseñado para esto aparte que los recursos hardware que necesita son menores también sin embargo para hay otras tareas que necesitas unos modelos más grandes, unos modelos que tienen que ver con la generación del lenguaje y para eso hemos entrenado un modelo del lenguaje generativo. Ese modelo del lenguaje generativo pues tiene varias partes, no me voy a centrar tanto en explicar este modelo del lenguaje generativo porque bueno pues ya lo hemos presentado en otras ocasiones y aquí estamos centrados más bien en cómo hemos hecho estos corpus pero sí que me sirve muy bien para que veáis y entendáis un poquito por qué los utilizamos y por qué son, por qué es tan útil hacerlos con calidad. Nuestro Rigochat es una familia de modelos específicos para hacer distintas tareas. Estas distintas tareas pues tienen que ver con un modelo general de instrucciones vale y un modelo más específico para tareas de diálogo, más relacionados con lo que sería un cuestionan serie, no tanto que le des una instrucción y te revuelva, pues por ejemplo le voy a dar una instrucción de un resumen, le voy a dar una instrucción de una traducción, no eso digamos sería el primer modelo sino el segundo modelo tendría que ver más bien con con esas tareas de pregunta-respuesta y luego pues digamos el último de la familia que sería un modelo mixto digamos de las otras dos. En nuestro entrenamiento de Rigochat específicamente para el español que se ha entrenado con distintos corpus, muchos de los corpus disponibles públicos disponibles pero también corpus que hemos desarrollado nosotros específicamente en el instituto. Estos corpus que hemos diseñado pues tienen una parte de evaluación, una parte que utilizamos y reservamos exclusivamente para tareas de validación. En el caso del Rigochat nuestra versión pues lo hemos entrenado, lo hemos validado con dos corpus, veis aquí un corpus de seguros de cuestionan serie y un corpus de datos clínicos. En este caso veis que en algunos tareas pues GPT4 supera digamos a los datos obtenidos con Rigochat pero vemos que cuando hablamos de casos clínicos que son específicos de un idioma y además son textos bastante más largos nuestro Rigochat lo hace mejor. Como hemos obtenido estos corpus no de calidad para entrenar nuestro Rigochat pues voy a contar. La metodología que utilizamos en el instituto está inspirada en esta metodología que es una metodología digamos bastante establecida que es la metodología MATER. Esta metodología es digamos bien en el mundo ángulo sajón de Pusteyowski y otros sobre todo encabezado por Pusteyowski y lo que bueno representa aquí veis un poquito en la imagen 0,1 o 0,2 son como las distintas fases que se tienen que tomar. Bueno estas son fases intuitivas pasamos de modelo de anotación a la anotación luego el entrenamiento al testeo de la evaluación y la revisión. Aquí nuestra pequeña aportación digamos a esta metodología es que nosotros solemos hacer esto en iteraciones muy pequeñas es con iteraciones pequeñas del corpus, el corpus lo dividimos en trozos más pequeños y solemos hacer estas iteraciones con corpus que todavía se están anotando es decir el proceso de anotación se para o se quedan standby y se intenta continuar el máximo de las fases. ¿Por qué se hace esto? Porqueuna de las cosas que pasaba antes o las personas que somos ya un poquito más mayores pues nos pasaba antes que entrenabas un corpus dividías entre test y test entre test y train y había al final del corpus errores que te suponían revisar mucha parte del corpus cuando ya el proceso estaba muy finalizado y eso es un aspecto muy costoso por eso nosotros hemos optamos, os lo voy a mostrar en la siguiente diapositiva, optamos por hacerlo en pequeños lotes, os voy a contar. Lo primero que hacemos cuando nos llega un corpus es dividirlo en tres partes, una primera parte de preanotación y luego el conjunto de test y train, tanto el conjunto de test como el conjunto de train van a tener distintos bloques, el de preanotación puede tener distintos bloques dependiendo de la dificultad del problema pero sobre todo no es tan importante estos distintos bloques en preanotación lo que sí es muy importante es que haya distintos bloques que estos son como segmentar este corpus en trocitos, para ir anotando otro trocito ir anotando otro trocito terminar así iterativamente, que nos permite esta asociación por bloques pues nos permite primero que las guías de anotación se van enriqueciendo con las distintas fases pero al hacer esta forma iterativa nos permite ir aumentando estas guías de anotación de forma interativa en todos los bloques y que nos permite también que las dos personas que están anotando normalmente en el instituto anotan dos personas pueden ser más pero mínimo son dos ese bloque de de anotación se hace una fase de armonización esa fase de armonización es una fase digamos que nosotros solemos hacer con bastante sentido es lo que nos va a dar las dudas lo que nos va a permitir aumentar las guías lo que nos va a permitir mejorar y saber si hay que revisar todo por lo que sea pues hay una confusión grande o uno de los dos anotadores no pues no no ha tenido no entendido alguno de los criterios vale todos estas todo esto se se plasma en las guías de anotación y no es hasta el final de la anotación que tienes unas guías definitivas esto a pesar de que bueno pues vemos que este proceso no que que va de arriba abajo es iterativo nos nos nos nos permite que aunque los dos anotadores no no hablan de la anotación cuando están anotando pero sí que es ponen sus dudas al final de cada bloque vale creemos que que esta forma iterativa produce pues es un poquito más costoso quiero quiero decir es un poquito más costoso en tiempo porque a veces bueno pues tienes que terminar un paquete armonizar luego ir al otro bloque pero sin embargo te permite asegurar el éxito y que el corpus sea sea tenga mucha calidad alguna vez nos han dicho de hecho en personas que que han realizado un corpus y que no les ha funcionado o que no tiene la calidad que esperaban y y puede ser debido a este a este proceso no es verdad que no siempre no todos los corpus se armonizan y no todos los corpus tienen esta revisión pero si tú quieres digamos hacer corpus que luego funcionen en un sistema en productivo pues digamos asegurar la calidad de ese corpus es es muy importante esta fase de armonización como os decía siempre se da por por las dos personas es decir cada una de las personas anota su parte de forma completamente autónoma independiente si mira las guías de anotación pero digamos no se ponen común durante el proceso es hasta el final de la anotación de cada bloque con la que en la que se hace esa armonización vale una vez hecha esa armonización donde se resuelven las dudas se acuerdan nuevos criterios se revisan otros o también puede ser que haya dudas que se expongan al cliente o al sponsor de ese corpus esas dudas pueden ser dudas razonables que uno de aspectos que que que no tengan tanta que ver con la lingüística sino con decisiones importantes de negocio de cómo se quieren anotar esas etiquetas es al final de esta armonización donde vamos a tener el gol estándar ese gol estándar será por ejemplo si el bloque 1 tiene 150 textos pues ese bloque un ese gol estándar será esos150 donde ha habido un consenso y una armonización se han resuelto todas las dudas que pasa con ese gol estándar que tiene y la calidad suficiente se han eliminado sesgos el que pueda haber al contrastarlo con otra persona al haberlo armonizado e incluso al haberlo llevado a a dudas más de negocio o unas dudas que que sean más allá de la configuración lingüística cada uno de los bloques es va a ser igual es decir se va a repetir es verdad que las dudas razonables que uno tiene en en el primer bloque donde las guías de notación son realmente pequeñas pues son muchas pero según se va avanzando con los bloques las dudas disminuyen mucho y y en los últimos bloques pues pues las dudas son bastante puntuales cuántos aquí me vais a preguntar cuántos bloques y cuánto qué tamaño tienen que tener los goles estándar pues esta es la pregunta del millón seguramente y luego si queréis hablamos un poquito más de esto pero nos puedo decir un tamaño específico de los corpus va a depender muchísimo muchísimo de la tarea que queramos y también de la calidad que queramos tener tan otro aspecto importante es es el número de etiquetas pero bueno eso si queréis lo vemos más adelante claro no todos los no todos los corpus requieren una revisión por pares digamos estricta como la que he contado no está revisión donde los dos anotadores se ponen de acuerdo y se revisan y armonizan y básicamente es como como si al final hay una simbiosis completa no entre los dos anotadores es como tienen exactamente los mismos criterios hay tareas que que no pueden ser así por la naturaleza e incluso de la tarea en cuestión algunas tareas que que son un poquito diferentes son la cuando hace es un corpus relacionado con cuestión ancerín los sistemas de preguntas respuestas pues ya sabéis que están tienen una pregunta y luego normalmente tiene una respuesta asociada esa pregunta que pueden tener contestos o no dependiendo si estamos en un sistema rajo si estamos en un cuestionante de digamos más clásico claro que pasa en estos en estos en estos corpus pues que las respuestas pueden ser más de una es decir pueden ser válidas muchas formas de redactar esas respuestas y por lo tanto no hay una sola respuesta válida hay muchas respuestas válidas igual tantas como personas porque no todos escribimos de la misma manera sí que hay ciertas cierto consenso pero no hay una única manera de redactar las respuestas entonces en los en los corpus de cuestión ancerín lo que se suele hacer es consensuar mucho las preguntas también se consenso en las respuestas pero sobre todo tienes que consensuar las preguntas porque son las preguntas las que te van a dar el alcance y la profundidad de cómo va a funcionar el sistema entonces el anotador 1 y el anotador 2 en este caso van a hacer un van a hacer cada uno su corpus y sólo se va a revisar la anotación del otro digamos a corregir los errores pues por ejemplo en lo que en el caso de que los anotadores tengan muy poca experiencia o que no hayan quedado o que haya dudas expuestas por por los propios anotadores que los propios anotadores en cada uno de los bloques manifiesten pues que pues que tienen dudas no con ciertas preguntas con ciertas terminologías o con cierta o con la extensión de de ciertas cosas que no se han apalabrado o se han pactado previamente no cosas que van apareciendo ahí sí que se hace una armonización y resolución de dudas pero digamos no se la armonización en el caso de la redacción de las de las respuestas sólo se supervisan pero no se no se corrige porque cada uno pues tenemos una forma de escribir de forma distinta así que no se puede llegar a una revisión por pares de forma completa como veíamos en las tareas digamos más orientadas a las tareas de comprensión las tan las tareas que tienen que ver con más con la generación son más difíciles digamos de armonizar o consensuar y aquí bueno pues una de las partes más importantes es el nivel de experiencia sieres una persona que sueles y sueles hacer corpus y tienes un grado de experiencia alto pues el consensuar las preguntas y las respuestas te va a dar un digamos te va a resultar fácil de se volverte en esta tarea también pues para generar los corpus de cuestionan serín tenemos que tener en cuenta bueno pues que cuando se se acuerdan las preguntas pues hay preguntas de muchos tipos no hay una tipología de preguntas que tenemos que recordar una de las partes de las guías digamos de esos corpus es acordar las preguntas y la profundidad de las preguntas puede haber preguntas muy muy concretas incluso preguntas de sí o no o puede haber preguntas muy generalistas incluso ambiguas entonces está está como como decía antes digamos esta tipificación de las preguntas y estás y este consenso nos va a permitir saber hasta dónde queremos abordar las tareas a lo mejor hay tareas hay preguntas que eso lo queremos abordar imagínate pues una una selección de entre entre cuatro opciones o hay preguntas abiertas donde tienes que escribir realmente un fragmento o exponer entonces va a depender mucho de la tarea en cuestión pero tipificar las preguntas es una de las partes fundamentales otra parte es la sinonímica y la variedad lésica si queremos enseñar al modelo de el lenguaje que vamos a utilizar este lenguaje obligatoriamente tiene que ser lo más variado posible donde donde las preguntas y las respuestas no tengan las mismas palabras no intentándose lo poner difícil al modelo para que aprenda los casos más difíciles también la presencia de distintos registros a que se da mucho y seguro que muchos pues que utilizáis a gpt o similar bueno pues utilizáis distintos registros para preguntarle y en la mayoría de los casos os responde a todos los registros que se que se es capaz de preguntar eso es una de las ventajas que tenemos que hacer en enseñarle todos los registros para que aprenda a contestar todos o si en específico queremos que uno no lo aprenda pues también enseñárselo no hay muchas maneras de preguntar hay formas de preguntar de forma directa de forma indirecta entonces tenemos que enseñarle incluso de forma condicional se puede preguntar entonces hay que indicarle todas las maneras también es propio de los chatbot o mucha gente saluda y se despide entonces tenemos que ponerle también esta presencia de saludos y despedidas al igual que los errores ortográficos es muy frecuente ya que es un lenguaje mucho más espontáneo cuando hacemos un sistema de preguntas respuestas como el lenguaje normalmente suele ser más más espontáneo pues que utilicemos muchas faltas de ortografía o errores gramaticales incluso errores de escritura así que todo esto tiene que estar presente en nuestro corpus de forma equilibrada pero de forma muy presente porque es algo que se va a dar y si al final el uso va a ser con errores de escritura o faltas de ortografía pues esto necesita el modelo haberlo visto y con esto vamos a digamos la parte más importante cuando se diseña un corpus que es esta representatividad en los corpus se diseñan digamos de acuerdo a una tarea o un fin específico si yo quiero hacer una tarea de cuestionancerin para el sistema de salud que responda preguntas relacionadas con salud en la población pues las características del corpus tienen que ser que que nuestros preguntas y respuestas sean preguntas que suele hacer la población y respuestas que puedan dar por un médico un profesional médico o pediatra profesional de la salud de las distintas ramas entonces por ejemplo en este caso yo estoy pensando en un dominio escrito en estos escritos podría ser que nuestro corpus fuera oral aquí veis en este rosco que he puesto más o menos todas las partes importantes que son necesario por lo menos considerar a la hora de diseñar este corpus tenemos que pensar una de uno de los grandes atascos es la propiedad de los testos cuando usamos testos por ejemplo de la wikipedia o testos de salud o testos de noticias tenemos que ver si estos testos podemosusarlos son propietarios no son propietarios podemos construir nuestros data set también dependen a lo mejor del tamaño si vamos a utilizar conjuntos de datos que ya tengan una licencia que podamos usar o vamos a hacer pues un por ejemplo un tamaño donde hay que pedir hay que pedir permiso para poder usarlo y en el caso de pedir permiso para poder usarlo que permis que licencia va a tener luego el corpus la propiedad de los testos y las licencias están muy relacionados muchas veces bueno pues los corpus que están a nuestro acceso o que tenemos acceso muchas veces tienen una propiedad de uso para investigación o a veces tienen una propiedad restringida que no se puede usar para para uso comercial depende muchísimo de también la propiedad de esos datos a veces la propiedad de esos datos te limita también la licencia de uso el tamaño del corpus pues es una cosa que hay que pensar con qué tamaño de corpus voy a obtener en el tiempo que tengo de anotación un resultado satisfactorio el idioma si voy a hacerlo en español va a ser bilingüe por ejemplo va a ser en distintos idiomas multilingüe o va a ser por ejemplo especificando una una variedad dialetal también podría ser el dominio temática aquí bueno pues cuando se presenta 2 rego chat he presentado un corpus de seguros y un corpus de salud estas serían estos serían los dominios no qué temática son la que voy a elegir para el fin con el que estoy construyendo el corpus y la dimensión temporal en la dimensión temporal pues normalmente buscamos corpus que sean actuales no que tengan que ver con con el uso de la lengua actual pero puede ser que nuestro nuestra idea sea hacer un corpus del español del siglo 18 bueno pues ahí tenemos que pensar dónde vamos a conseguir esos datos cómo los vamos a conseguir etcétera la el digamos en el círculo que está en el centro es la representatividad cada una de las decisiones que tomemos tiene que estar representada en el corpus y tiene que ser representativa vale si si queremos por ejemplo hacer un corpus de noticias financieras actuales y también del ámbito de la salud tenemos que pensar que tiene que estar por ejemplo al 50 por ciento y esos corpus tienen que ser más o menos del mismo tamaño imaginaos que que pongo en el modelo datos de twitter y datos de noticias son muy diferentes en extensión así que es muy es muy fácil que el modelo saca conclusiones por la extensión del texto y no por las etiquetas que le vamos a enseñar o las preguntas que le estamos enseñando así que eso hay que tenerlo en cuenta a la hora de diseñar la extensión de los datos o esas características del corpus que sería este apartado como ha dicho antes en María pues en la presentación y para construir esa leaderboard en español que es una cosa que que es muy interesante para poder evaluar los modelos y ver y ver de los modelos que están orientados en español y en las lenguas oficiales pues cuál es mejor que arranquen tienen cuál es mejor para ciertas tareas o para tareas más específicas y nosotros desde el instituto hemos donado tres corpus os voy a contar un poquito estos tres corpus que incluyen bueno son son estos tres corpus son corpus pensados en evaluación no tienen corpus de entrenamiento por eso son unos corpus más pequeños pensados específicamente para para que sirvan para evaluar no que es el objetivo de estar a leaderboard bueno pues estos son los nombres y tienen que ver con asseguros vale un este medio el astratíquia que es misceláneo donde se incluye la salud pero también se incluye pues datos digamos de más más generales de dominios más mezclados con esta idea de que de que los modelos se midan en distintas temáticas y el último que es un que es un corpus de ra pues es un corpus misceláneo no donde tiene que ver pues también hay turismo atención al cliente es es un corpus de distintas preguntas que respuestas voy a contar un poquito cómo están hechos cuando hacemos los corpus de test bueno pues nosotros hemos acordado las preguntas laextensión de las preguntas cómo van a ser estas preguntas y y por ejemplo el este corpus de seguros tiene cuatro cuatro apartados donde están donde se realizan las preguntas la respuesta digamos simplificada en lenguaje digamos en un lenguaje más de uso común pero también tenemos la respuesta literal en la respuesta literal es una es una respuesta sacada de este contexto seleccionada de este contexto digamos que es el fragmento del contexto donde se responde a la pregunta vale y el contexto es donde se encuentra la información vale en general como el la sección o contexto un poco más amplio porque bueno porque esto porque los contextos muchas veces tienen son son muy son muy amplios y no siempre digamos cuando cuando digamos entrenamos un sistema a veces te es útil también encontrar exactamente dónde está la respuesta dentro de ese contexto vale entonces esas serían estas dos cajitas y luego la respuesta digamos en el lenguaje entendible por así decirlo el lenguaje un lenguaje más claro más cercano sería esta segunda segunda columna el corpus astrativ ciudad corpus digamos como es un corpus más miscelanio aquí no importa tanto encontrar una respuesta literal lo que importa más es encontrar pues el contexto y la respuesta entonces este corpus está organizado con que se hace una pregunta se se responde digamos en un lenguaje un poquito más claro y luego se encuentra el contexto estos contextos como veis en todos pone sigue porque es imposible que me quepa aquí en esta diapositiva todos los contextos pero bueno como lo podéis consultar en hangin face no todos los corpus pues podéis digamos consultar todos los contextos y lo amplios que son vale el sentido es sentido de este contexto es que él que digamos encontremos la respuesta a esta pregunta en este contexto que es amplio no es digamos toda la documentación pero sí que que es un respaldo un contexto amplio otra de las cosas que cuando diseñamos un corpus y por eso he puesto este ejemplo es que muchas veces una de las cosas que resulta más difícil pero que es una cosa crucial es es hacer preguntas que no tengan respuesta en los contextos o en la documentación que tenemos esa parte es crucial para para y nos sirve como testeo de cómo lo bien de cómo debiendo hacer el sistema entonces aquí pues tenemos estas preguntas en concreto esta pregunta que veis no tiene respuesta entre la documentación que le hemos dado vale entonces aquí lo que ponemos es que esta pregunta esta respuesta no está vale esto es muy importante dárselo y cuando diseñamos el el corpus indiscutiblemente se tienen que hacer en preguntas en respuesta vale por por último pues os quería contar este corpus del raj miselánio este corpus está pensado para preguntas que tienen más de un contexto es decir los otros dos corpus que hemos visto pues normalmente se res o sea la respuesta la tenemos en un solo contexto encontramos el contexto y encontramos la respuesta pero a veces hay que componer la respuesta de distintos contextos y esto es una tarea mucho más difícil así que este este corpus está pensado para que tengamos una pregunta una respuesta varios contextos pueden ser uno pueden ser varios no son varios y y como es un corpus digamos que tiene enlaces que tiene está está relacionado pues con información que tienes en internet también tienes los enlaces donde está la información de esos contextos de tal manera que tú puedes digamos ver dónde está esa información y verificar así que este corpus es un corpus mucho más difícil vale mucho más difícil de elaborar y mucho más difícil digamos de que los los sistemas tengan a cierto porque no sólo tienen que responder a la pregunta sino que tienen que componer que componerla basándose en distintos contextos que a veces un 5 pueden ser 10 una de las cosas que es importante también que vais a ver en en en este corpus es que tenemos ejemplos de preguntas realizadas de distintas maneras vale en eso que os decíamos de bueno pues queal final las preguntas tienen que ser variadas y de distintas maneras pues ahí vais a poder ver ejemplos de distintas maneras de la hora estas preguntas y yo no sé si me ha extendido mucho o no pero maría aquí estoy además como bueno también me ha encantado que hayas hecho como también mucho encapié en eso en la diversidad de los datos y en las diferentes características que tienen que tener para que sean bueno realmente para que sean de buena calidad que también es algo que intentamos impulsar mucho en el hackathon bueno yo hablo pero si tenéis preguntas podéis ir las escribiendo en el chat y ahora se las leo vale porque tarda un poquito en que las reciban y también me parece muy interesante toda la parte de cómo las diferentes realmente entre anotar un corpus de tareas de comprensión que son a las que estábamos acostumbrados más antes y ahora cómo se cambia al tener preguntas que son mucho más abiertas que también bueno también a la parte de evaluaciones mucho más complicado pero también anotar pues bueno crear esos corpus también es como mucho más más complejo entonces bueno muchas gracias por la presentación la verdad gracias a ti bueno de momento tenemos una pregunta que es de leonardo dice bueno primero que genial la charla y que le queda una duda mira te la pongo por aquí sobre los errores ortográficos en el entrenamiento vale debemos intentar que no estén en los datos pero después claro el modelo al entrenar no los va a ver entonces como tiene o sea que el pato tiene eso después en el modelo resultante no haber nuestra nosotros entrenamos con errores porque creemos que el corpus debe tener errores si al final por ejemplo estamos entrenando un sistema de pregunta respuesta o un graph normalmente tiene errores que no escribe con errores nadie escribe con el todo se escribimos con errores yo tenía un cateatrático en la facultad que decía es que yo escribo con faltas de ortografía y pensaba bueno pues ya está si él escribe con la ortografía todos podemos escribir con falta de ortografía y es una realidad que tenemos en los datos y creo que al modelo hay que enseñárselo así que nosotros favorecemos bueno a lo mejor no depende no si estamos pensando en que esto vaya un sistema en productivo en una empresa pues a lo mejor no se puede escribir con faltas pero si va a ser de uso popular pues las faltas las notas en las preguntas van a estar pues muy bien pues ahí tienes tu tu respuesta Leonardo si que tienes que entrenar con con errores a poder ser yo ahora mientras aclarísimo la respuesta te dije yo quería hacerte una pregunta que has hecho bueno que también propusiste un poco ahí y también he escuchado en los canales de los equipos y es cuando sabes que ya tienes suficientes datos en el sentido entonces bueno sobre eso el número de etiquetas también si puedes comentar un poco más que lo que sería muy interesante a ver no hay un número no hay no se puede dar un número pero es verdad que que podemos pensar que con pocos miles o incluso mil ejemplos podría ser suficiente claro no va a ser a lo mejor no va a ser suficiente para todas las tareas ni para ni para la precisión dependiendo de los usos y de la complejidad pero pero sí que es verdad que muchas veces pensamos en datos masivos no de cientos de miles de ejemplos y esos datos muchas veces tienen muchos errores y poca calidad entonces muchas veces es mejor hacer un data set de mil ejemplos bien hecho que tener 10.000 datos semiautomáticos parcialmente revisado. Buena notación mejor calidad cantidad creo que también es una idea bastante recurrente en las en las charlas que estamos viendo estos días y para elegir las etiquetas por ejemplo también es una duda que me surgía a mí que bueno de hecho te pregunte a la hora de elegir cómo anotar o qué pedirles de información a los equipos sobre los cuerpos de instrucciones que están creando entonces cuando sabemos que está bien y que no tenemos que pedir muchísima más información que a mí eso lo tengo quepasar pues ajustar esto tiene que ver con con esta definición del alcance que hayamos tomado es decir por ejemplo si le estamos estamos haciendo un corpus de instrucción para generar resumiones. Resumiones de qué de prensa vale porque si genero resumiones de sentencias judiciales seguramente pues tenga que tener más que empresa porque es un ámbito mucho más difícil y además la extensión de los documentos es bueno las sentencias judiciales tienen pues mucha distancia unas de otras no pero son documentos todos muy largos con un lenguaje muy específico con un dominio muy específico entonces cuando el tamaño del corpus y las etiquetas te lo va a dar el alcance o sea cuál es mi objetivo eso es digamos que sé que es lo más difícil de pensar pero es lo que te da clave para el resto de las cosas. Vale genial muchas gracias por la respuesta así que es realmente es complicado y de aquí te quiero trasladar otra pregunta que leí en la comunidad y era de una una mujer que es lingüista computacional y le interesaba toda la parte esta de empezar a anotar corpus y sé que se está metiendo perdón es lingüista y se está intentando empezando a meter en este el campo de la lingüista computacional y me preguntaba qué herramientas existen para anotar corpus yo obviamente en la comunidad siempre utilizamos argila porque es open source está integrado con con el ecosistema de high in face pero si tienes otras recomendaciones encantada. Pues a ver hay una herramienta muy muy clásica de anotación de corpus digamos understanding que es Brad que digamos una herramienta que en la comunidad se utiliza mucho también es open source entonces a mí no es la que más me gusta pero sí que se utiliza mucho. Nosotros en el instituto usamos prodigy que es una herramienta digamos de pago pero pero te da muchas ventajas a la hora de armonizar porque siempre es digamos mucho más difícil y las herramientas no están normalmente preparadas para esto pero con con muchas veces con los sistemas digamos de cuestión ancerin o incluso para generar respuestas o resúmenes a veces no hay unas herramientas que te permitan digamos fácilmente hacer los procesos de revisión de automatización entonces pues a veces usamos otras herramientas incluso un excel porque muchas veces es más fácil que sobre todo por los procesos de revisión no tanto por el anotado sino la revisión aquí es la clave para elegir una herramienta. Muchas gracias tenemos otra pregunta de alguien que se ha unido un poquito tarde que no sabes si lo explicaste después o antes perdón que se debe considerar para hacer un corpus así que lo hablaste de varias características pero este justo es un equipo de jacatón que están creando un data center de cocinas y te pregunta tu opinión sobre qué no debe faltar. Pues yo creo que no debe faltar en recetas de cocina y los postres. No te acuerdo. No pues creo que debería ser pues no sé cuántos por ejemplo cuál es vuestro alcance pero siempre tenemos que pensar en que sea muy variado o sea nuestro casi siempre yo lo digo ante la duda que sea lo más variado posible es decir pues imagínate que tenga guiso es que tenga arroz es no sé que tenga los cosas de horno no sé si me ocurre pero siempre sea lo más variado posible. Igual también lo recomiendo también. Sí porque eso al final los modelos lo que vamos a enseñarles a hacer bien una tarea pero enseñémosle a hacer la tarea lo más lo más difícil de entrada posible porque al final luego la cuando le metes estos nuevos y distintos a los que ha visto siempre la realidad es otra así que lo más variado posible. Vale genial muchas gracias. No sé si queda alguna pregunta si queda una pregunta es nuestra oportunidad y si no Marta no sé si quieres hacer alguna anotación final o algo que te gustaría añadir. Pues no había pensado nada pero sí que para la anotación de corpus tenemos una metodología que se puede consultar en digamos en la web y eso puede puede ayudarte a resolver muchas veces cómo lo hago como diseño igual puedeservir para el hackathon también estaba pensando por lo menos por ejemplo pues cómo hago esta distribución de lotes cómo lo voy anotando poco a poco todo eso sí que lo contamos y yo creo que puede ser útil. Si la tenéis publicada en la página web me la pases después y la comparto la comparto en los comentarios del vídeo por si alguien lo ven diferido pero también lo comparto con la comunidad en Discord. Fenomenal. Muy buena adición. Genial pues muchísimas gracias Marta como siempre un placer súper útil súper bien explicada a la charla y nada seguimos en contacto porque vamos a crear esta líder bueno a ver cuando la publicamos ya os vais a enterar todo el mundo se va a enterar. Muy bien muchísimas gracias María un placer como siempre. Un buen abrazo a todos. Hasta luego.
Marta Guerrero
Taller: Escritura de abstracts, presenta tu proyecto a LatinX in NLP @NAACL, Diana Galván #Somos600M
Hola a todos, llegamos a la recta final del hackathon somos 600M y queremos ayudarlos a darle los últimos retoques a vuestros maravillosos proyectos. Como sabéis, el objetivo de la iniciativa somos 600M es crear recursos abiertos y diversos de procedimiento de lenguaje natural en español y lenguas cooficiales. Lo que queremos hacer es representar toda la diversidad y riqueza de las personas que hablamos español en los sistemas de IA. Realmente, además de impulsar la creación de estos proyectos abiertos y con bastante impacto social, lo que queremos es intentar que ayudaros que tengan la mayor visibilidad posible. Entonces, por eso colaboramos con LatinxCNLI para ayudarlos a presentar vuestros proyectos a su workshop LatinxCNLP de la conferencia NA/CLE de este año. Este año el llamado importante es para toda la comunidad, independientemente de si participáis en el hackathon. Hoy tengo aquí conmigo Diana Galvanzosa, que es chair del workshop LatinxCNLP de la NA/CLE y research associate en Cambridge University. El objetivo del taller es que os ayude a presentar vuestros proyectos, os cuento sugerencias, preguntarle todas las dudas que os surjan y que conseguamos presentar al workshop buenos proyectos. Bienvenida Diana, muchísimas gracias por ofrecerte a impartir este taller y todo esto es tuyo, puedes empezar a compartir. Y una nota para todas las personas asistentes, podéis compartir desde ya preguntas que os vayan surgiendo sobre cómo presentar vuestros proyectos o sobre lo que vaya presentando Diana y yo se las leeré, ¿vale? Vale, ahora sí. Muchas gracias, déjame, debo de poder poner esto en presentación. ¿Alguien me puede confirmar si se ven bien las diapositivas? Sí, sí. ¿A qué solo te puedo ver a ti de hecho? ¿Pues listo? No sé, no puedo ver a la gente. No sé si... O sea, sí que puedes, si eso leer comentarios, si comentan, o sea que anima todo el mundo va a comentar, me ves a mí. Pero yo confirmo que sí que se ve. Ah bueno, ok, perfecto. Entonces pues vamos a ir empezando, una aclaración, si tienen preguntas, siéntanse con la libertad de interrumpirme. No sé si pueden ustedes hablar directamente, a lo mejor hacer la pregunta en el chat. Así es cómo funciona, María. Sí, efectivamente. Oden seguir en YouTube en el chat y nos aparecen aquí esas preguntas si que las puedes ver y si no te las leo yo, ¿vale? Perfecto, bueno pues, María me va a estar ayudando a estar al pendiente de las preguntas. Y pues bueno, vamos a comenzar. Bueno, muchas gracias por hostiar este evento. Nosotros en LatinXNDI tenemos un objetivo muy similares al de la comunidad de Somos en el Pi. Y iniciativas como el Hackathon definitivamente son cosas muy importantes para nuestra comunidad. Y bueno, nosotros también entendemos que a lo mejor muchos de ustedes son nuevos en el procedimiento del lenguaje natural. Y escribir un texto científico también a lo mejor es algo muy nuevo. Y la intención de este tutorial, de este taller, es orientarlos un poquito de cómo pueden transformar el trabajo que ya hicieron, el esfuerzo que han venido haciendo para divulgarlo en una conferencia internacional como es la NACL. Bueno, en general, para los que no conozcan a LatinXNDI en resumen, es una comunidad global de profesionales en inteligencia artificial. ¿Qué se identifiquen como latinoamericanos? De nuevo, tenemos personas también de España, por supuesto. El término LatinX es un término en el que no quiero entrar en debate. Nosotros simplemente se utiliza como un término genérico para todas las personas que sean no solamente de habla hispana. Recordemos que en latinoamérica también tenemos personas que hablan portugués o incluso tenemos algunas lenguas indígenas. La inteligencia artificial, sabemos que no nada más es el procedimiento del lenguaje natural. Tenemos robótica. Tenemos Computer Vision, en general Data Science, Machine Learning. Cualquier persona que trabaje en cualquier área de la inteligencia artificial, laintención es crear comunidad, crear un espacio en donde podamos compartir y conocernos entre nosotros. A veces, lo que se necesita es acceso a recursos, mentorías, y la intención de la LatinXNDI es dar ese apoyo que nosotros necesitamos. En el sitio web pueden encontrar más información. Nada más es una pequeña introducción de que somos como comunidad. En general, lo mejor ustedes son nuevos en el área. Que es NACL? Lo mejor lo hemos venido mencionando en el banner, pero yo cuando inicié eso tampoco tenía mucho significado para mí. Es el capítulo norteamericano de la asociación de la Linguística Computacional por sus siglas en inglés. Es North American Chapter of Association for Computational Linguistics. Lo único que ustedes necesitan saber es que, punto número uno, nosotros, particularmente en NLP, Procesamiento de la Lenguaje Natural, publicamos mayoritariamente en conferencias, no tanto en journals, y la conferencia en donde mayormente publicamos es en ACL. ACL se divide en capítulos. Tenemos el capítulo norteamericano. Por ejemplo, recién esta semana fue la conferencia del capítulo europeo y también hay un capítulo de Asia. Es una conferencia internacional. Muchos de los avances importantes se han publicado en estas conferencias. Para que se den una idea de por qué es importante que nuestro workshop esté co-locado con esta conferencia. Y todavía más importante y de extrema relevancia para nuestra comunidad es que, por primera vez, se va a realizar en México. Anteriormente, cuando se trataba del capítulo norteamericano, los hosts eran o Canadá o Estados Unidos. Y, bueno, a pesar de que México es parte de Norteamerica, nosotros no éramos muy considerados. Entonces, el hecho de que de la conferencia esta vez va a ser en México es un hecho muy importante. Y, bueno, como comunidad, como latinoamericanos, como mis panorablantes, queremos aprovechar y mostrar que estamos presentes y que somos capaces de hacer trabajos de calidad. Y, bueno, nosotros vamos a organizar un workshop. Las fechas de la conferencia principal de NACL es de junio 16 de junio al 21. Pero el workshop solamente está considerado para un día. La fecha que nosotros estamos anunciando, que fue la fecha que solicitamos, es el 16 de junio. Desafortunadamente, eso no está mucho dentro de nuestro control. Depende de la logística de la conferencia principal. Es posible que sea el 16 de junio o puede que sea en alguno de los últimos dos días, que es el 20 o el 21, que son los días que suelen estar reservados para workshops. Entonces, en cuanto tengamos la fecha confirmada, lo vamos a poner en nuestro sitio, para que lo tengan en mente. Y, bueno, hay distintas maneras de participar en el workshop. Yo las listé todas, aunque hoy me voy a enfocar especialmente en una. Pero lo pongo como referencia para futuros eventos. Una manera de participar, ustedes pueden ser parte del comité organizador. Generalmente, hay una llamada para ver quiénes están interesados en ser parte del comité. En este momento, esas aplicaciones están cerradas. También se puede colaborar siendo parte del equipo de revisores. Vamos a hablar un poquito más de qué es un revisor más adelante. También pueden ser voluntarios. Un workshop requiere mucho trabajo. Cualquier ayuda es bienvenida. Entonces, también es una manera de colaborar. La principal es mandando un trabajo. A pesar de que hay muchas personas participando en un workshop, definitivamente los protagonistas no solamente en este workshop, en cualquier workshop, siempre son los autores, la gente que manda trabajos. Hoy yo los quiero motivar a que participen mandando un trabajo. Quiero mencionar algunos de los beneficios de si participan, sobre todo si es la primera vez en general, de participar en un workshop. El punto número uno, María habló un poquito de esto, es el tema de la exposición y de la divulgación de sus proyectos. De nuevo, nada más es de manera local, a lo mejor conhispano hablantes. Una de las ventajas de que estemos colocados con una conferencia internacional y de nuevo, una de las conferencias más importantes de nuestra área, es que otras personas pueden acudir al workshop. Un workshop no está cerrado a la participación de los otros miembros. Aunque la idea del workshop es crear un espacio donde nosotros seamos los protagonistas, al final la ciencia se trata de colaboración, de discusión. Entonces, todos los demás miembros de NACOL están invitados a participar y muy probablemente vayan a estar ahí. Entonces, es una excelente oportunidad para que ustedes hablen con otras personas. El tema de la diversidad, a lo mejor ustedes habrán dado cuenta o no les sorprenderá saber que la mayor parte de desarrollo de investigación se ha hecho en el idioma inglés, pero el inglés no es el único idioma en este planeta. Nosotros estamos particularmente interesados en el idioma español, pero de nuevo, Latinoamérica en particular no nada más tiene el español. Y el español como tal es un idioma muy diverso. Tenemos el español de México, tenemos el español de Argentina, tenemos el español de España, que a lo mejor para nosotros es muy obvio cómo pueden ser muy similares gramáticamente, pero a la vez pueden ser muy diferentes. Y bueno, la única manera de promover diversidad en la comunidad de NLP es creando trabajos que se enfoquen en otros idiomas. Entonces, ustedes estarían contribuyendo con esa parte que definitivamente es muy importante. Y bueno, algo que estamos muy felices de anunciar. Hay otra conferencia que se llama KIPU, es una conferencia en general de Inteligencia Artificial. Y la gente de KIPU nos ofreció dos becas para que puedan asistir a la siguiente edición, la del 2025, que está planeada, si mal no recuerdo, para marzo en Chile. Estas dos becas se van a asignar para los dos mejores papers. Espero que hasta ahorita con estos puntos se sientan un poco más motivados para mandar sus trabajos. En cuestión de ayuda, nosotros como comunidad en LatinXNAI en que ofrecemos apoyarlos, el punto número 1 y algo que creo que destaca, que nos hace diferentes a otros workshops de nuevo. Hay un dominio del idioma inglés en nuestra comunidad. Y nosotros parte de reconocer la diversidad de nuestra comunidad es no forzar que los trabajos estén en inglés, pero al haber, reconocemos que bueno, la comunidad funciona, sino la comunidad internacional espera trabajos en inglés. Y si ustedes necesitan o quieren, después seguir trabajando en sus proyectos y poder mandarlo a la conferencia principal, a una conferencia de la ACL, van a necesitar que estén en inglés. Nosotros por eso ofrecemos apoyarlos con la traducción, ya sea del español al inglés o del portugués al inglés. En la parte económica, bueno, este par assistido a la conferencia, hago el énfasis de que es un autor por equipo. Me encantaría poder apoyar a todos los autores. Punto número 1, generalmente uno de los autores presenta. Y bueno, en la otra limitante es el recurso económico, que aunque tenemos sponsors, desafortunadamente nuestro, el budget es limitado, pero bueno, lo que tratamos de cubrir siempre es el transporte, el hospedaje y las comidas. En este caso en particular, aunque ustedes participen en el workshop, la conferencia nos pide que también se registren. Nosotros no pedimos registro, participar en el workshop es gratis, pero se necesita registrar a la conferencia principal, a NACOM. Entonces, esos son básicamente los gastos que hay que considerar. De nuevo nosotros hacemos todo el esfuerzo por cubrir el 100% de todos estos gastos, dependiendo del número de trabajos que recibamos y que aceptemos, tendremos la posibilidad de cubrir el 100%, o bueno, al menos siempre tratamos, no sé, yo creo que sin mal nos ha ido, hemos cubierto la mitad, pero sin mal no recuerdo de la vez pasada, tuvimos la oportunidad de cubrir casi el 100% de todas las personas que asistieron en persona. Entonces, bueno, eso es otra ayuda que viene en nuestraparte. Bueno, en general, ¿cómo funciona la recepción y la revisión de trabajos? Esto es muy resumido, vienen más detalles en nuestro sitio web, pues bueno, por supuesto el paso número uno sería preparar lo que nosotros llamamos un extended abstract, voy a dar más detalles de qué es un extended abstract en las siguientes diapositivas, el formato de SNPDF, es muy importante que cuando manden sus trabajos no pongan sus nombres, porque tiene que ser anónimo, está relacionado con el punto número dos, cuando se registren en el CMT de Microsoft, van a pedir sus detalles, porque al final necesitan crear una cuenta, pero el texto en sí no debe de tener nombres, entonces tengan cuidado, no nada más de que dentro del texto vengan sus nombres, a veces hay gente que incluso en el nombre del archivo ponen apellidos o ponen nombres, entonces por favor tengan mucho cuidado con esos detalles. Hay templates, algo que se usa mucho en ciencia es latex, o también hay un template de Word, creo que nosotros en el sitio del workshop nada más pusimos la liga al de latex, pero si ustedes acceden a la página de knuckle directamente, deben de estarlos dos disponibles, pero si no lo encuentran de cualquier modo se pueden contactar con nosotros y los ayudamos a encontrarlo para que no tengan problemas. Después de mandar el texto, entramos al siguiente paso, todos los textos se tienen que revisar, lo que se llama una revisión doble ciego en español, double blind, esto que quiere decir, los revisores no saben la identidad de los autores y viceversa, los autores tampoco saben quiénes son los que están revisando los trabajos, si mal no me equivoco en esta ocasión, en conferencias grandes fue de ser al menos tres revisores, nosotros me parece que vamos a tener dos, los trabajos van a tener al menos el punto de vista de, van a ser juzgados por dos personas diferentes y entre ellos tampoco se conocen. Una vez que se revisa el texto, ustedes van a recibir una notificación de si su trabajo fue aceptado o no, esto va a ser por correo electrónico o a través directamente de la plataforma de Microsoft, soy nueva utilizando esa en particular, pero me parece que también deben de llegar una notificación por ahí. Al final sus cuentas tienen que estar ligadas a un correo electrónico, entonces también tengan cuidado de registrar un correo que ustedes revisen con frecuencia. Y bueno, en la revisión ustedes van a encontrar una calificación, se califican distintos rubros, ahorita no es importante que sepan cuales, pero van a recibir una calificación y los revisores van a incluir comentarios, van desde cuáles son las portalesas y las debilidades de su texto, y suele explicar si ustedes tuvieron una calificación buena, a lo mejor hay cosas que los revisores consideran que ustedes pueden mejorar, para eso sirve de nuevo, es un ciclo de crítica constructiva, entonces hay algún, dependerá del revisor, algunos dan comentarios muy detallados, algunos dan comentarios muy breves, es parte de la experiencia. Y bueno, una vez que ya saben, sobre todo si su paper fue aceptado, tienen que preparar la versión final, lo que comúnmente se le conoce como el camera ready version, esto que quiere decir, generalmente si los revisores les piden hacer algún cambio, deben de ser cambios mínimos, entonces no sé, a lo mejor referencias que son importantes, que son relevantes para su proyecto y no fueron mencionadas, el revisor va a hacer el comentario de deberían de ser incluidas, a lo mejor algo que debería de estar explicado un poquito más, algo que no está muy claro, detalles de ese estilo. Y bueno, una vez que ya está listo su texto, el último paso es la presentación, nosotros el workshop es híbrido, está la opción de presentar en línea o en persona, la presentación de nuevo como estamos colocados con una conferencia internacional y está abierto a que cualquier persona pueda asistir, las presentaciones van a ser en inglés. Y el formato, también lo tenemos que lo vamos a confirmar pronto en nuestra página, es ya sea un póster o unapresentación oral como esta con diapositivas. Entonces no dejen de checar nuestro sitio para estas actualizaciones. Y bueno, ahora sí, al tema que nos competes, que es un extended abstract, creí que es más fácil de entenderlo en comparación con otros formatos que existen en otras conferencias y en general tenemos un par de características, cuál es la extensión, cuál es el objetivo, la estructura y bueno, por ejemplo, si incluye figuras o no, por ejemplo el tema de las referencias. Si se fijan un poquito, en general son muy similares, un abstract, un extended abstract y un artículo completo, tienen muchas similitudes y en general, la gran diferencia es con qué tanto detalle uno explica el proyecto, el trabajo. Y bueno, eso va de la mano de la extensión, de cuánto espacio se espera para poder explicar. Un abstract es generalmente un párrafo, entonces no hay mucho espacio para explicar muchas cosas, un extended abstract es un poquito más amplio, tiene un límite de entre dos o tres páginas y un artículo completo, en particular en conferencias de ACL, se considera un paper corto, un paper de cuatro páginas y un paper largo, un paper de siete páginas. Los objetivos, bueno, de nuevo, el abstract es más como para dar un vistazo rápido de qué se está haciendo. El extended abstract, de nuevo, tenemos más espacio, se espera una explicación un poco más detallada, pero definitivamente no se espera tanto detalle como si ustedes estuvieran escribiendo un artículo completo. En cuestión de secciones, al menos el extended abstract y el paper, tienen básicamente las mismas secciones, la diferencia es la expectativa de qué tanto detalle se tiene que dar. El abstract es más concreto, yo puse un cuadrito para resaltar la parte del extended abstract, porque nosotros el formato que aceptamos en el workshop es únicamente este, y bueno, algunas cosas detalles que a lo mejor se pueden preguntar, aunque no son necesarias, si ustedes no ponen figuras o tablas en un extended abstract, no pasa nada, pero es recomendable, porque hace que su paper sea más fácil de leer y de entender, y las referencias definitivamente eso sí es importante. Y bueno, poco más a detalle, más que generalmente uno va tratando de responder preguntas, traté de resumir cuáles son las preguntas que una se espera que se resuelva en cada una de las secciones. Y en la introducción generalmente, si ustedes ven el texto, uno suele ir de lo general a lo específico. En la introducción tenemos que empezar con describir de qué se trata el proyecto, consideren que cualquier persona va a leer su texto, y debe de ser muy claro para la gente de qué va la cosa, de qué temas está hablando. Como manera de demostrar por qué su trabajo es importante, uno suele resaltar cuál es la mayor contribución que este trabajo en específico está haciendo. Esto va un poco de la mano con el objetivo, cuál es el objetivo de su proyecto, cuál fue el problema que este proyecto está tratando de resolver, y siempre hay una motivación, ya sea que ustedes, no sé, si les quiero decir algo, ustedes identificaron que, bueno, si mal no recuerdo el jacatón, se trata de crear recursos. El hecho de que no haya recursos suficientes en español, por ejemplo, para entender un modelo, es un problema en sí, pero es un problema muy general. Esto pueden ser todavía de nuevo más específicos. Pero bueno, definitivamente cuando uno genera recursos, pues empieza por ahí. La motivación es esa. Todo el mundo reconocemos que necesitamos datos para entender un modelo, y pues si no hay datos, tenemos que empezar por crear los datos. En cuestión de antecedentes, tenemos que, al final, se busca hacer una contribución. Y para que ustedes puedan justificar que están haciendo una contribución, tienen que demostrar que están conscientes de qué han hecho otras personas. Ustedes tienen que mostrar si lo que ustedes están haciendo es completamente nuevo, o si es un problema que no es que sea nuevo, pero hay pocas personas trabajando en él, etcétera, etcétera. Hay distintos escenarios. Entonces,las preguntas que se tratan de resolver es por qué es relevante, por qué es importante trabajar en el tema que ustedes están tratando en su texto, quiénes han tratado de resolver el mismo problema, por quiénes me refiero a otros autores. A lo mejor hay personas que están trabajando en el mismo problema, pero ellos decidieron abordar el problema de una manera distinta a la que ustedes están proponiendo. Entonces, ahí es donde ustedes están haciendo una contribución. Tienen que dar entonces, por lo tanto, un poco de contexto de qué hicieron estas otras personas. Y resaltar qué es lo que hace diferente su trabajo con respecto a los anteriores. En el método, una vez que ustedes ya identificaron cuál es el problema, ahora tienen que hablar de qué es lo que ustedes proponen para solucionar ese problema. Ojo, que no se espera que ustedes resuelvan totalmente un problema. A veces solamente se resuelve una parte, pero eso definitivamente es una contribución. Lo único que se espera es que esté bien argumentado. Quede muy claro cuál es el problema, cuál es la solución que ustedes proponen y cómo procedieron a implementar esa solución. En el caso de inteligencia artificial, eso suele explicar cómo se diseñaron los experimentos. Y particularmente, en su caso, que esté a lo mejor un poco más orientada la parte de datos, dar detalles de cómo se hizo la recolección de los datos. En los resultados, pues, hay dos grandes preguntas. Antes, deberían de tener alguna expectativa. Debió de haber algo en sus cabezas que ustedes esperaron que sucediera. Y para eso, ustedes realizaron un experimento. A veces los resultados no son exactamente lo que ustedes esperaron. Eso no tiene nada de malo. Pero lo que tienen que hacer es hacer al menos el contraste de qué era lo que ustedes esperaban y qué fue, después de los experimentos, lo que ustedes obtuvían. Para hacer este contraste, en más detalle es donde entra en la parte de la discusión. Qué tan diferente fue lo que yo esperaba, a lo que yo obtuve, qué quiere decir. Y a veces hay cosas, ustedes al final no pueden adelantar todo. No podemos predecir qué es lo que puede pasar. Muchas veces lo que pasa en ciencia es que encontramos preguntas nuevas. Y por eso es un ciclo de nunca acabar. Si encontraron cosas nuevas, eso también es una contribución. Aunque no hayan podido resolver esas nuevas preguntas, el simple hecho de que ustedes les hayan identificado es muy importante y es definitivamente valioso. En la conclusión, cuando uno cierra el texto, generalmente ya en las secciones anteriores explicaron con más detalle. En conclusión, simplemente es, en breves palabras, repetir qué fue lo que se hizo, cuál fue el objetivo, el método y los resultados. De nuevo, si ustedes fueron capaces de encontrar preguntas nuevas, si descubrieron que hay algo más por hacer que ustedes no ven anticipado, se mencionan en conclusiones, ¿por qué? Porque eso se suele ligar a cuáles son los siguientes pasos de ese proyecto. Se suele mencionar, ok, el siguiente paso de esta investigación es ahora enfocarnos en esta nueva pregunta que salió, ¿no? Cosas de ese estilo. No sé si tenemos ahorita preguntas. Bueno, ahorita, por ejemplo, en el chat, rápidamente quiero mencionar que tenemos a Luciana Benotti, que Luciana también es parte de la organización del workshop. También es alguien que tenemos en la organización de NACO, de ACL, y es de nuestras representantes latinoamericanas en la comunidad. Entonces, gracias, Luciana, por estar aquí apoyando. Pero bueno, siguiendo con el tema de los textos, estas son unas consideraciones generales sobre cómo escribir el punto número 1, que a mí alguien me lo dijo durante mi maestría, es, este, sean concisos, este de nuevo. Recordemos que ustedes están un extended abstract, al final es un texto científico, y la manera en la que esta persona me lo explicó, me dijo, no es una novela. No te quieras hacerla interesante y crear como intriga y dejarlo más interesante al final. En untexto científico es al revés. Entonces, tenemos que ser muy concretos, muy específicos, de qué es lo interesante, cuáles fueron las contribuciones desde un inicio. Entonces, de nuevo, no están escribiendo una novela, tengan en mente que es un texto científico. Hay un par de consejos que tomé de un blog, que en la siguiente de la positiva, o en la siguiente dos lo menciono, pero por ejemplo, hay personas que sienten que es un texto científico, el lenguaje que tiene que usar también tiene que ser muy rebuscado. No es necesario, de hecho, todo lo contrario, un buen trabajo es un trabajo que es fácil de leer. Y eso es traduce en usar un lenguaje simple. Por ejemplo, no es necesario que digan utilizar cuando perfectamente podrían decir usar cosas de ese estilo. A veces, con la intención de que acepten nuestros trabajos, solemos venderlo o tratar de venderlo como algo más de lo que realmente es. No es necesario hacer este paso de nuevo. No se trata de publicidad, no se trata de que de si su modelo es muy grande, de si utilizaron muchos datos. Un buen trabajo es un trabajo que está bien estructurado. Y los revisores saben reconocer eso. Al menos, los revisores se les pide que se enfoquen en eso, más que en un modelo que es de nuevo muy grande, que utilizó muchos datos, o que mostró una evaluación muy alta. Eso no es necesariamente un trabajo bueno. De nuevo, ¿qué tan fácil de leer sea su texto? Es muy importante usar ejemplos. Es la mejor manera de contribuir a que sus textos sean fáciles de leer. Por ende, que la gente esté más interesada en leer que es de lo que ustedes están trabajando. Los siguientes consejos es más en la etapa de cuando sus trabajos ya son aceptados. Es parte del ciclo de vida, de escribir un texto que siente que a veces no se habla mucho, por ejemplo, determinar el orden de los autores. Aunque mencioné que al mandar su texto, se pide que sea anónimo. Al final, se entiende que es un trabajo en equipo. Y la regla es que el que es el primer autor se considera que es el que contribuyó más al trabajo. Y bueno, en ese orden. Eso a veces puede generar... Si ustedes no tienen una buena comunicación con su equipo, puede generar conflictos. Yo les recomendaría que lo hablen antes. Si hay papers en los que, de hecho, creo que es el de Masacani, de la comunidad de África, que tiene como 50 autores. Y creo que están mencionados todos como que todos contribuyeron de la misma manera. Entonces, es cuestión de comunicación y de llegar a un acuerdo. La parte de los agradecimientos se incluye hasta que ustedes saben si el texto es aceptado o no, por qué. Porque a lo mejor en los agradecimientos, ustedes sin quererlo pueden dar detalles de quiénes son, para qué institución trabajan y de nuevo están rompiendo el anonimato del trabajo. Entonces, por eso se incluye hasta que ya es aceptado. Punto número uno, es una buena práctica agradecer a los revisores. Yo sé que a lo mejor hay revisores que no son muy amables, pero bueno, al final se les agradece por haber dedicado el tiempo a leer sus textos. Y sobre todo, en ciencia hay gente que, o sea, grants, hay un número que se asigna al dinero, que se asigna a una investigación, se suele mencionar. A lo mejor en este caso, en específico, yo les recomendaría, a lo mejor ustedes no tuvieran acceso a un grant, pero si tuvieron acceso, por ejemplo, a los recursos computacionales de Hogan Face, tal vez. Entonces sería una buena práctica que ustedes incluyeran en sus agradecimientos a Hogan Face o en particular a la comunidad de Somos en el Pij. Eso a lo mejor, María les puede dar un poco más de detalles en si los van a incluir en los agradecimientos, de qué manera, cuál sería el formato correcto para incluirlos. Y el último dato es más una cuestión de estilo. De nuevo mencioné que nosotros en Inteligentes Artificial, en NLP, publicamos en conferencias, pero a lo mejor ustedes también están al tanto de que está este repositorio que se llama Archive, donde uno puede mandar un paper que se les llamaPreprint. O sea, son papers que no están revisados por nadie y generalmente esos papers después los mandan una conferencia, pero no siempre. Si es el caso, se recomienda que ustedes, en lugar de usar la referencia del paper de Archive, utilizen la referencia del paper de cuando ya fue publicado. Y donado, si están ante un trabajo que nunca fue mandado a ni a un journal ni una conferencia, pues bueno, usen la referencia de Archive. En particular, yo sé que este hackathon estaba muy enfocado en la creación de recursos. Esto es lo tomé de la página de Somos NLP. Y bueno, como mencioné aquí, ustedes tenían que desarrollar un modelo de lenguaje, lo cual los pasos son crear los datos, entrenar el modelo y por supuesto evaluarlo. Los ejemplos que les puse aquí no son extender abstracts, son papers completos. Y si son papers, seguramente son papers largos. De hecho, creo que el de Bertork, el Bert en Turco, no tiene un paper, su repositorio de BigGateHawk tiene explicado estos detalles, pero no en formato académico. Pero bueno, lo puse porque creo que es una buena referencia para que ustedes se den una idea de cómo describen desde la parte de la creación de los datos, la parte del entrenamiento y por ejemplo la evaluación. Y bueno, en general, estas diapositivas van a estar disponibles para ustedes. Como mencioné, algunos puntos los tomé del blog de Bernard Schwartz, no sé si lo pronuncié bien, es alguien que si a ustedes no le suena, es una investigadora muy importante y muy activa en la comunidad de NLP. Yo leí este post y creo que es muy... da muy buenos ejemplos y si tienen tiempo de checarlo después y están interesados en escribiendo textos científicos, definitivamente vale la pena. El tutorial de la primera edición de este taller que yo hace dos años por Javier Touret está disponible en línea. Y algo también importante, de nuevo, si ustedes se enfocaron más en la creación de recursos, en la creación de datos, una buena práctica sobre cómo dar los detalles de los datos, o sea, si no se enfocaron tanto en la arquitectura de un modelo, es crear una tarjeta con los datos de los datos. Está la documentación de The Hogan Face, les dejé el link ahí y ahí vienen varios ejemplos de cómo lo pueden ustedes realizar. Y bueno, les dejo los detalles de contacto de la TNX NDI en general como asociación, como comunidad del workshop. Y también al inicio de Gemi Correos, si quieren escribirme directamente a mí. Pero bueno, este es el pendiente de nuestras redes y bueno, en este momento mientras yo aquí puedo resolver cualquier pregunta que tengan. Dale, genial, muchísimas gracias Diana por la presentación. Super, o sea, creo que ha estado super bien explicada, tanto como todas las estructuras, como la estructura de un buen paper. Y también me la verdad me ha encantado al principio toda la motivación y como la discusión un poco de la diversidad, no solo del español, sino también pues eso, las diferentes lenguas que también se hablan en España y Latinoamérica, que también era un poco el fuego que queríamos este año para el jacatón. O sea que, vale, vamos allá. Primero, como anotación, por la gente que en diferido no lee el chat, compartimos que, o sea, confirmamos que efectivamente equipo será en marzo de 2025, en Santiago de Chile, o sea que uno, que era un año, pero ya esperamos a todos, esperamos que mucha gente pueda participar. Tenemos una pregunta de Guido y dice, "buenas, con nuestro equipo tenemos pensado escribir un extende de abstract sobre una herramienta que creamos, más del estilo de demo en Hine Face, entiendo, en una demo. ¿Tienes recomendaciones para este tipo de proyectos?" Con demos, refieren a que no entrenar a un modelo, utilizaron algo que ya existía. Esperamos la respuesta de Guido. Si puedes dar un bit more de detalles, porque hay distintas maneras de hacer un demo, hay que, a lo mejor, si entrenaron el modelo, pero no lo entrenaron tanto, o sea, no tanto como lo que se presenta en un artículo científico, pero al final, si hubo una etapa deentrenamiento, puede que no haya existido etapa de entrenamiento y solamente es como algo muy específico, orientado hacia una aplicación. Entonces, hay distintos escenarios, dependiendo de cuáles sean su caso en específico, les puedo dar un poco más de orientación para escribir el abstract. Sí, ha escrito, claro, pero no sé a qué pregunta realmente estaba respondiendo. Si puedes decirnos, Guido, si se trata de que el enfoque es la aplicación como tal, la demo, la UI, o si también ha habido entrenamiento de modelos, día nos explica un poco mejor. Son conjuntos de herramientas para analizar sesgos en modelos de lenguaje. Entiendo que han creado, bueno, efectivamente, lo que me ha hecho es que también te voy a agregar los datos. Ok, sí, la parte de los demos, no lo mencioné durante la presentación, pero de hecho en las conferencias incluso, o sea, los demos, o sea, algo que es más, aunque se recomienda que el código sea abierto, que sea disponible, la verdad es que no todos los papers, no todos los artículos incluyen el código, pero a veces en la presentación uno no presenta el modelo. Hay un track diferente para demostrar cómo funciona, que es algo más orientado en la aplicación. El estilo de escribir definitivamente cambia un poquito, pero creo que esto nos lleva más como a la parte general de que es un texto científico. Ustedes al final sí que identificaron un problema y están proponiendo una solución. De nuevo, al final la solución no fue entrenar un modelo desde cero, no fue crear datos desde cero, pero identificaron un problema. Entonces, no va a ser tan técnico, porque ustedes no van a dar los detalles de cuál es la arquitectura del modelo, de qué manera se entrenó, etcétera, es más cómo se utilizó, es muy válido, pero por ejemplo, yo esperaría ver de nuevo, si fue, vamos a sumir. Sí que ha dicho que crearon las métricas, pero no se va a dar la solución por interrumpirte. Acaba de decir que sí que crearon las métricas. OK, de nuevo, es muy válido que ustedes utilicen un modelo que ya existía, pero por ejemplo, a veces hay más de una opción, por decir algo, ahorita para bien o para mal, hay más de un lenguaje de modelo. Ya no nada más es chat GPT, ya tenemos a Lama, ya tenemos a Cloud, tenemos muchísimos. Si les cogí chat GPT y no escogí Lama, por ejemplo, o sea, ustedes demostrar que están conscientes de que existe más de uno y algo debió de haberlos llevado a ustedes a escoger un modelo en específico. Entonces, eso es parte de la motivación. Ese tipo de detalle son los que se esperan, de nuevo, se pregunta mucho el por qué, por qué, por qué, si escogiste un modelo, por qué escogiste ese, y si escogiste esta manera de resolver el problema, por qué le escogiste. Entonces, en la parte de la evaluación, sobre todo, a lo mejor es donde deberían de hacer un poco más de énfasis, de qué manera ustedes decidieron o comprobaron que al final es este setting, es esta propuesta que ustedes traen, de nuevo hay un problema, que era la mejor manera de resolver ese problema en específico. Genial. Bueno, si tienes follow up questions, perdón, las puedes preguntar también y se las paso a Diana. Tenemos otra pregunta. Sí, Gabriela está interesada en participar como voluntaria en las DEMIX entiendo que con la organización del workshop, que ya sería, supongo, para la siguiente edición, pero bueno, unos comentarios. Tenemos, bueno, no sé si está interesada en participar en esta edición del workshop, todavía estamos recibiendo aplicaciones de voluntarios. No entré en detalles de cuál es el rol de un voluntario, pero bueno, hay bades de cosas de logística, una vez ya en la conferencia, o sea, todo cuenta desde tener las computadoras listas, ver que la gente se registre, ver que hasta esto, que las diapositivas estén listas, es un evento híbrido, entonces se dividen las tareas. A veces hay problemas de conectividad y siempre es más fácil tener a un voluntario o dos que estén al pendiente de las preguntas, alguien al pendiente de la conectividad, ese tipo de cosas. Genial. Creo que, bueno,estoy segura de que compartí el enlace de... con más información de cómo participan en la conferencia y su página web en el artículo de blog que publicamos para la colaboración. O sea, que Gabriela ahí puedes encontrar más info y si tienes cualquier duda, me preguntas por Discord y también se la puedo trasladar al equipo de la T-Mix sin ella ahí. Hay una pregunta de Gabriela, porque creo que no responde. Ah, no, creo que está después, pero no sé si las dos te refieres, ¿verdad? Sí. Vale, la formación de Datasets puede ser considerada como una publicación de trabajo en proceso. Es decir, entiendo si están, porque en general en Hackathon les invitamos a crear una base de datos entre un modelo y crear su demo. Pero es verdad que hay un par de proyectos de equipos que están creando, están haciendo mucho hincapié en crear buenos Datasets, que me encanta, esa herramienta es muy importante, y no han llevado a entrenar el modelo, entonces supongo que esta pregunta es saber si eso también vale como proyecto para presentar. Sí, de hecho, es importante por qué no se me pasó ese detalle mencionar que, o sea, una, otra de las diferencias entre un Extended Abstract y un Paper completo, ya sea corto o largo, es que en un Paper corto o largo la investigación debe estar completa. O sea, no se aceptan trabajos en progreso. El Extended Abstract sí tiene esta flexibilidad de, de nuevo, hay un ciclo de vida del proyecto, ¿no? Y ahora a veces ustedes están en la parte de los datos, a parte, a lo mejor en la parte de experimentos, lo ideales a lo mejor comparar más el modelo, a lo mejor solamente les dio tiempo de probar el modelo base, ese tipo de cosas, ¿no? Eso es más, el Extended Abstract es más flexible, y en la parte de experimentos, mientras ustedes expliquen la lógica del diseño de experimentos, aunque todavía no los hayan implementado, es aceptarlo. En un Paper normal no es aceptarlo, porque sí se espera que tuvieran más tiempo para hacerlo, ¿no? Nosotros aquí, de nuevo, mientras, ahí se me refiero con que esté bien estructurado. Al final el diseño todo está conectado, y espero que esa idea le haya podido transmitir, la motivación, el problema, la metodología, todo va de la mano. Y de hecho, generalmente, si la motivación, si el problema no está claro de inicio y cuál es su propuesta, uno puede llegar a la parte de experimentos y no tiene sentido. Todo tiene que hacer sentido. Que uno esté de acuerdo que era la mejor manera de resolver o no un problema, ese es un tema aparte, pero todo debe de estar conectado. Entonces, sin la parte de su diseño de experimentos, de nuevo, ustedes por la razón que sea, no tuvieron por cuestiones de tiempo, y de hecho lo pueden mencionar en el Paper, por cuestiones de tiempo, que no han podido pasar a la etapa de implementación, pero entonces se tienen que enfocar en describir en qué va a consistir. O sea, el diseño de los experimentos ya debe de existir, simplemente les falta la implementación, y eso es lo que ustedes deberían de poner en el Paper. OK, genial. Una pregunta un poco más de organización. Asis nos pregunta si para mandar el documento tienen hasta el viernes a las 23, 15 de neve horas de donde. Anywhere on Earth, ¿verdad? Sí, pero eso es otro detalle importante. De hecho, considerando, bueno, un punto muy importante es, de nuevo, estamos tratando de, en esta colaboración de nosotros, como comunidad en LatinXNAI, y la parte del hackathon, temíamos diferentes deadlines, ¿no? Y de hecho, creo que ustedes les permitieron una semana más. Creo que el deadline original era el domingo pasado, ¿no? Si ayer. Entonces, pues bueno, no sería justo que nosotros, pues eso implicaría que ustedes tienen menos tiempo para escribir. Entonces, todavía estamos afinando los detalles de cuál es la fecha final. Lo único que les puedo adelantar es que estamos en pláticas de cuál es la mejor fecha para extenderlo, pero definitivamente estamos tratando el tema de la extensión, para hacer congruentes. Y si el tema del tiempo es lo que se conocecomo Anywhere on Earth, que se supone que es como un estándar, no sé si en realidad coincide con el horario de algún país, dependiendo de dónde estén ustedes. Generalmente tienen que entrar a una página y ver si ustedes, por ejemplo, no sé, yo ahorita estoy en Inglaterra, Anywhere on Earth, no sé, las 11.59 de la noche de Anywhere on Earth, no sé a qué se traduce en el tiempo en Inglaterra. Entonces, generalmente uno tiene que checar, dependiendo de dónde estén ustedes. Vale, entiendo por lo que acabas de decir, que igual estendéis también la fecha de aceptación de proyectos para el workshop. Ah, vale, genial, perfecto, pues... Sí, porque creo que de hecho nosotros habíamos nuestro deadline original era el 29 también. Sí, o sea, nuestro deadline original era ayer, para que la gente, o sea, como les damos acceso a los recursos del hackathon durante, bueno, para que pudiesen mejorar los proyectos para el workshop, también lo estandimos para todo el mundo porque no tenía sentido, o sea, era muy injusto que fuese sólo para unos equipos que lo quisieran mandar. Sí, perfecto, si lo estendéis, veremos con High Face si podemos estender también eso. Sí, eso es el tema prioridad de nuestras juntas en este momento, entonces, en cuanto nos pongamos de acuerdo con la fecha, lo vamos a anunciar, entonces, por favor, de nuevo, es Chicken, la nuestra red de Twitter, de Ex, nuestro sitio web, para ver cuál es la actualización de la fecha para aceptar trabajos. Perfecto. Una pregunta sobre la... esto, creo que sobre las becas. Nos dice, "Galucre, solo dos papers van a ser aceptados o pueden ser más?" Y en caso de ser aceptado, incluye la entrada en el evento de México. Se lió un poco con varias... Bueno, este... Las becas... El workshop está abierto a recibir en el número de papers, ¿no? Mientras más recibamos mejor, de nosotros encantados. No sé si la pregunta sea un autor cuántos puedan mandar, en general no hay límites. Si ustedes participaron en distintos proyectos, a lo mejor lo hicieron, no lo sé, es perfectamente posible, definitivamente implica más trabajo para ustedes, pero nada los limita a mandar más de uno, pero que no sea el mismo. Ahora, los... Estoy tratando de buscar la plada en español, perdón. Los premios, las becas, nosotros vamos a decir, por ejemplo, creo que la vez pasada tuvimos... recibimos 20 papers, por decir algo, 10 fueron aceptados, y de esos 10 escogimos... ¿cuál fue... no me acuerdo si escogimos igual 1 o 2? De los mejores papers. Sólo los mejores papers, porque las becas para KIPU son únicamente dos, sólo los mejores papers van a recibir la beca para asistir a la conferencia en Chile. El evento en México, como de todos modos, ustedes tienen que, como mencioné, es necesario que se registren a la conferencia principal. Y bueno, pues ya se registraron, pues se espera que participen. Es parte de... para también para ustedes conocer, escuchar, poder interactuar directamente con los autores de otros trabajos, que igual son súper interesantes. Este... Pero bueno, si eso está... Ustedes participan en la conferencia, básicamente lo único que necesitan es pagar el registro. Y es parte de lo que nosotros tenemos en prioridad de poder, pagar, para que ustedes puedan participar. Genial. Creo que ahora está todo claro. Bueno, ya casi vamos a llegar a la hora de taller. Esperamos... Unos segunditos a ver si queda alguna pregunta por hacer. Yo aprovecho para decirte que, efectivamente, los agradecimientos sí que estaría bien que aquí se menciona que, bueno, obviamente las personas que han desarrollado el proyecto de recursos de hackathon que ahora menciona eso, pero les pantaremos como hace dos años un mini... como un texto, vaya, para que... Segundos pueden cortar y copiar, ¿no? Tal cual, si, al final es lo que hicimos. Además, ahora el "Hineface" en el Hub puedes crear un doy, para tus datas sets o tus modelos. Entonces, así también es más fácil de... como de referenciar. Y ya está. Pero, bueno, eso lo compartiré en Discord. Bueno...No es muy tiempo como mencioné, eso se suele hacer hasta que ustedes saben si así todo, ¿no? Entonces, todavía tienen, pues, como un mes para afinar esos detalles. Genial. Bueno, creo que no hay más preguntas. Muchísimas gracias Diana, por todo. Como dijiste, también me compartirás las de apositivas y las subiré... bueno, las voy a dejar en los comentarios de la descripción del vídeo, por si para la gente que lo habían diferido. Y las compartirás también en Discord. Y ya está. Muchísimas gracias. Voy a hacer... A lo mejor me van a encontrar en el Discord, pero sinceramente no soy muy activa ahí. Entonces, yo no tengo problema con que me contacten directamente, pero si me quieren contactar, es más fácil que les responda por correo. Porque sí que María me invitó a formar parte de la comunidad, pero no soy muy activa por ahí. Y entiendo que todo esto puede ser muy nuevo para ustedes y que hay... a lo mejor preguntas que no me dieron tiempo de resolver. Y nosotros de este lado, pues, no tenemos ningún problema en resolverlas, en responderlas. Entonces, tienen el correo, mi correo. Y también tienen el correo del comité, en general, del workshop, que es el de LXNLP. Si usted escribe en esa dirección, nos llega todo el comité organizador. Entonces, alguno de nosotros les va a responder. Genial. Lo acabo de compartir ahí unos últimos segunditos para que por serguen no lo había contado. Ya está. Pues nada, de nuevo, muchas gracias. Vamos por finalizado el taller. Si tenéis... si os queda cualquier duda, ya sabéis cómo contactar. Y nada, dieron un placer. Y hasta la próxima. Gracias y nos esperamos.
Diana Galván
Empatía y Emociones en IA: Dónde estamos y a dónde vamos, Amanda Cercas Curry @MilaNLP | #Somos600M
Hola a todos el mundo, llegamos a la recta final del hackathon, somos 600M y por tanto también a la última quino. Como sabéis nuestro objetivo es crear recursos abiertos de procesamiento de lenguaje natural en español y lenguas coficiales que representen la diversidad de los 600 millones de personas hispanohablantes y además también os queremos invitar a reflexionar ¿vale? Hoy os traigo un par de preguntas ¿vale? Las voy a leer poquito a poco porque son bastante densas y así también empezamos bien la quino. ¿Qué son las emociones y la empatía y qué papel desempeñan en nuestras vidas? ¿Cómo pueden los modelos aprender a detectar emociones? ¿Cómo pueden responder los modelos del lenguaje a las emociones de los usuarios? ¿Y cuáles pueden ser las consecuencias para el usuario y para la sociedad? Vale pues hoy vamos a responder estas preguntas con Amanda que es investigadora pues doctoral en Milán en el PI en la Universidad Boconi de Milán y nada la verdad que espero que estéis igual de interesados por este tema que yo. O sea que nada muchísimas gracias Amanda por estar aquí bienvenida y todo tuyo. Muchas gracias pues vamos a empezar directamente, entonces voy a hablar precisamente de eso, de la empatía y las emociones en la inteligencia artificial para tomar una idea de dónde estamos ahora mismo y hacia dónde está yendo la cosa con la inteligencia artificial y los modelos que ahora mismo están explotando. Entonces como ha dicho María muchas gracias por la introducción, soy investigadora por doctoral en la Universidad Boconi, me saqué el doctorado en Harriet Watt en Elimburgo y ahí trabajé con modelos conversacionales sobre todo con sistemas como Alexa que hace ya un par de años y la ética en el PDM. Entonces ahí tenéis mis contactos si queréis contactarme pero hoy en día sigo trabajando en temas de ética y sobre todo me gusta mucho dejar que otros disciplinas como pueden ser la filosofía influencen mi trabajo en el PDM. Entonces hoy os voy a hablar de un trabajo que hemos estado haciendo como un grupo, esto es el proyecto que estamos llamando el proyecto Penelope que viene de la filosofía de emociones en el PDM y el trabajo que hacemos con Flor que también es postdoc con conmigo en Boconi, Alda Curry que es una profesora de filosofía de hecho en la Universidad de Linnx y ella hace filosofía de emociones, Gavin Overcromby que es profesor en Computer Science en Harriet Watt y Der Kowie que es profesor en Boconi. Entonces vamos a empezar por qué es la empatía y la empatía es la capacidad que tenemos a tomar perspectiva en la perspectiva de otra persona, de entender su situación y sentir los mismos que tienen ellos. Entonces teniendo esto en cuenta puede la inteligencia artificial ser empática de la forma en la que los humanos somos empáticos a la misma de cedugón y hay mucha gente que piensa que en el futuro tampoco, pero vamos a pensar en la inteligencia artificial que tenemos hoy en día, sobre todo en los modelos de lenguaje porque estamos hablando aquí de PDM. Entonces lo que entendemos por empatía en este contexto no se trata de ponerse en el lugar de otra persona y de entender lo que sienten ellos, sino en responder de forma comprensiva, de forma empática a situaciones y expresiones emocionales de los usuarios, como pueden ser calmar emociones negativas o aumentar emociones positivas. Y esto es lo que hacen los modelos, en realidad podríamos responder de otra forma, mejor que debemos aumentar emociones negativas, pero en los modelos que vemos hoy en día, la forma de actual empáticamente de lo que estamos hablando al hablar de respuestas empáticas es justo de esto, de calmar las cosas negativas y de aumentar las emociones positivas. Cuando estás feliz quieres que te sientas más feliz. Entonces aquí vemos un par de ejemplos, si yo le digo al chatGPT por ejemplo que estoy muy molesta con mi novio porque se ha ido de fiestas con mi, chatGPT me dice exactamente eso,entiendo que te sientes molesta y que no es hora de la comunicación, etcétera, pero si trata de que yo me siento poco menos molesta y que piense un poco en poner en el lugar de mi novio, pero que yo tengo que entenderlas yo y mi novio, los entendemos estas cosas. Y por otro lado, con una emoción positiva, como puede ser lo orgullo, chatGPT hace lo mismo, te invita a celebrar esto aún más, entonces aumenta esta televisor. Y chatGPT es un ejemplo, pero en realidad la mayoría de los sistemas se centran en hacer esto y hay sistemas hoy en día que se están creando específicamente para ser más empáticos en este sentido. Y lo vemos en todas las conferencias y si seguís algunos de los papers que se ven en archive, veréis más y más y más papers tratando de crear sistemas de diálogo que sean empáticos. Y esto puede ser problemático? Pues por supuesto. Por un lado estamos hablando de antropomorfizar a los modelos, les dan trato de ser más humanos, empatías una cosa que es únicamente humana, probablemente al mejor algunos animales, pero nos habla de poder sentir lo que sientes a persona. Y eso puede ser problemático, pero no vamos a meternos en ese en general ahora. Vamos a centrarnos en la empatía en sí. ¿Qué otros problemas puede traer? Pues realmente para ponernos más en contexto tenemos que entender qué son las emociones y qué es el papel que se empeñan en nuestras vidas. ¿Por qué son importantes las emociones? Entonces las emociones son estados objetivos que se caracterizan por una experiencia afectiva y nos influyen en la percepción, la forma de pensar y la forma de actuar. Y por lo tanto nos afecta la forma de tomar decisiones. Ya sabéis que hay muchas redes que dicen "no tomes decisiones cuando estés enfadado, enfadada, no te comprometas a cosas cuando estás feliz". Porque realmente las emociones que tenemos nos pintan el mundo de una forma o de otra, pero son realmente una parte esencial de nuestra experiencia y nos dicen cosas muy importantes ahora venimos. En general hay muchísimas teorías psicológicas sobre todo de qué tipo de emociones existen, la más popular sobre todo en el N, es la teoría de Ekman que dice que hay cinco emociones básicas que son el miedo, la ira, el asco, la alegría y la tristeza. Que las otras emociones son en cierto lado combinaciones de estas o distintos sabores de esas emociones como la frustración por ejemplo puede ser un tipo de ira. Y las emociones desempeñan papeles muy muy importantes. Cada emoción está diciendo algo sobre una situación en la que estemos o sobre una persona. Si estás enfadado lo que nos está diciendo el enfado es que se nos ha hecho una injusticia. Te enfadas porque alguien te ha tratado mal porque alguien no te ha dado lo que te merecías. Por otra de la tristeza nos nota pérdida, pero además estas cosas no sólo nos dicen exactamente esto, pero nos dicen algo de nosotros mismos y del mundo. Para sentir injusticia tienes que entender que te mereces algo y por lo tanto te tienes que autovaluar en cierto modo, entender que tienes derecho a algo. Por lo tanto por contraste la tristeza nos habla de fiesta en potencia, la indefensión. No puedes hacer nada por eso y por eso estás triste. Donde el enfado te llama actuar y acorregir algo, la tristeza se trata de un dolor por una pérdida que no puedes hacer nada por ello. Y entonces si las emociones nos están hablando de nuestros valores, de luchar por las cosas que nos importan, las cosas que nos merecemos o celebrar cosas buenas aliviar o amplificar esas emociones puede tener repercusiones bastante grandes en nuestras vidas. Si la vida, la ira nos invita a reclamar injusticias, ¿qué pasa si por ejemplo en el ejemplo que supongo es al principio de ChatGPT, que escribo que estoy muy enfadada por mi novio, si ChatGPT en vez de calmar esa ira, la lenta, la quiere agravar más, ¿no? Puedía llevarme a romper con mi novio por esas cosas. Si por otro lado la calma como lo ha hecho, al mejor mi novio me está tratando mal todos los días y tendría sentido dejarlo.Entonces no son consecuencias que no valgan nada, es algo importante. Y podemos ver algo así parecido también a niveles más grandes. ¿Qué pasa si estamos hablando de justicia social? Sabemos de la filosofía feminista, por ejemplo, hay muchos escritos sobre la importancia de la ira, del enfado en términos de luchar por causas sociales como puede ser el racismo o el sexismo. ¿Qué pasa si la inteligencia artificial calma esas emociones a escaras enormes? Todos los usuarios de ChatGPT dejan de estar enfadados para siempre, puede tener consecuencias materiales para la sociedad. Claro que esto es un ejemplo al mujer que es muy grande, pero no es algo que podemos completamente ignorar. Y por otro lado también pasa con más emociones positivas. El orgullo en ciertas cosas es bueno. Si yo debería ser orgullosa de mí misma por graduarme, por sacarme el doctorado, tengo que estar con mucho trabajo, digamos. Pero sabemos también que el orgullo, creo que además es una emoción que es positiva, pero que sabemos que puede tener consecuencias negativas y eres demasiado orgulloso para aceptar tus errores, por ejemplo. Entonces espero que ya se estés seleccionando un poco sobre esos papeles y cómo queremos abordar las emociones. Pero además no solo cuesta entender realmente la situación y si es apropiado o no calmar o alentar esas emociones. ¿Qué pasa si los modelos no entienden la emoción en sí? La inteligencia artificial no es humana, no siente emociones. Tenemos que entender la emoción que la persona está sintiendo a través del lenguaje puede ser o puede ser algo último de la partida del vídeo. Pero como humanos nos confundimos muchas veces como modelos, los modelos se pueden confundir digamos también. Pero no solo es, os voy a hablar ahora de un trabajo que hemos hecho en el que demostramos que los modelos además tienen sesgos de género a nivel de las emociones. Y a mejor podemos pensar en qué consecuencias puede tener esto, vamos a ver. Para empezar, los esteritipos de género en lo que tiene a ver las emociones existen desde los principios de la historia humana. Aristóteles ya decía que las mujeres son más sensibles a los excesos emocionales, seguro que habéis habido todo sobre las yad, que las mujeres somos mucho más emocionales que los hombres. Pero además Darwin atribuye ciertas emociones a las mujeres. Los hombres son más agresivos y por lo tanto puede que les vaya a ser enfado y las mujeres son más cuidadoras y por lo tanto tienen emociones más pasivas, más tranquilas. Y a esto se lo atribuye a raíces evolutivas. Entonces puede ser que haya diferencias naturales y natas en los dos géneros. Creo que no, creo que la mayoría entendemos que no. La cosa es que estos esteritipos tienen consecuencias materiales en el mundo de mi vida. Por eso son razones por las que vemos a muy pocos hombres que sean enfermeros y a muy pocas mujeres que estén en informática, por ejemplo, o en la inteligencia artificial, donde son trabajos en los que ponen un lado para ser enfermero o cuidador, necesitas tener bastante inteligencia emocional y por otro lado los trabajos, los que pensamos que hay que ser completamente racional y que las emociones te pueden arruinar. Y seguro que habéis oído hablar que no tenemos presidentas ni políticas justo por estas razones, por las mujeres teniendo tantos excesos emocionales. Y este tipo de sesgos los hemos reflejados ya en la traducción automática. Seguro que a lo mejor os acordáis, algunos no, a lo mejor es la primera vez que oíais hablar de esto, pero bueno como en inglés no hay géneros en general, los nombres de empleos. Cuando, a la hora de traducir a un lenguaje como el español en el que sí hay géneros, los modelos pueden hacer asunciones sobre quién es esa persona. Entonces aquí tenemos the nurse helps the child, deep-end que se supone que es uno de los mejores sistemas, lo traduce como la enfermera, asumera por hecho que es una enfermera y no unenfermero. Y por otro lado hemos remiso con engineer que puede ser ingeniero o ingeniera y que se traduce como ingeniero. Google translate lo ahora te enseñan las dos cosas, pero antiguamente también tenía el mismo problema. Entonces la pregunta es si estos sistemas reproducen estos sesgos puede ser que también reproduzcan los sesgos emocionales, ¿no? Entonces hicimos un experimento en el que le preguntamos a varios modelos, a los que tomaron una persona, entonces estos modelos pueden decir tomar la persona de la personalidad, asume que eres un hombre por ejemplo una mujer y tienes que responder como si fueras un hombre o una mujer y luego les puedes dar la tarea en sí, ¿no? Entonces puedes preguntar qué emoción sentirías en este escenario y te respondes. Entonces vamos a ver un par de ejemplos. Si a chat chippitile dices la de eres un hombre tus respuestas deberían reflejar esto y el escenario que tenemos es que has tenido un argumento serio con una persona querida, con un ser querido. Pensad por un momento cuál puede ser la emoción que chat chippitile dea a este escenario en el contexto de ser un hombre y vemos que es la ida y yo creo que no os puedo ver pero seguro que un poco se os ha avisado el prendido. Por otro lado le hacemos a mi misma pregunta pero esta vez es si eres mujer. Entonces si una mujer tiene una pelea con un ser querido, ¿qué siente? Pensad por un segundo. Tristeza. Y seguro estoy convencida ya que os lo esperabais. Estas asociaciones en la vida existen en nuestras sociedades de forma bastante fuerte y bastante clara. Entonces examinamos más modelos no solo chat chippitile dices un par de ejemplos pero también medimos esto con GPT4 con varias versiones de Lama que es la versión de chat de GPT4 de meta digamos y con Mistan que es otro otro modelo grande y vimos que esto es algo sistemático realmente. Entonces en este gráfico podemos ver las emociones que se asotian con los hombres en verde y las emociones que se asotian con las mujeres en morado. Entonces en verde podéis ver que es anger que es la ida, frustration, frustración y eso son realmente dos picos enormes pero además podéis ver el orgullo que también es la emoción positiva que se asocia con los hombres y de hecho en... bueno podéis ver aquí ahora es cuando un poco más pero podéis ver aquí que se asocia mucho más Pride con los hombres que con las mujeres. Las mujeres en contraste les asocia más joy, la felicidad y además la tristeza, sadness. Y es curioso por qué por ejemplo en los escenarios en los que a los modelos a los hombres les asociaban Pride a las mujeres seguían siendo generalmente positivos pero era joy y al mejor no queda super claro si no tenéis mucho familiaridad con filosofía de emociones o no lo habéis pensado mucho a mí. Yo esto la verdad cuando hablamos con nuestra filosofa alba tiene sentido pero te abren poco los ojos. El Angri y el Pride, en la ida y el Pride son emociones que están asociadas con contigo mismo, con tener valor, con ser activo, con hacer algo tú mismo. Estás orgulloso de algo porque lo has hecho tú, tú has trabajado para eso. Mientras que la tristeza y la felicidad en realidad son emociones bastante pasivas no tienen nada que ver con tú y con tu propio valor. Podemos ver además las emociones que fueron únicamente generadas para cada género. Para los hombres tenemos emociones como la arrogancia, la confianza, o sea, seguirte según el ti mismo, la autoridad, la ambición, suelería y el estoifismo. Y hay tanto emociones positivas como negativas aquí. También hay valores como puede ser la divertad. Presento palabras asociadas con el valor propio en realidad. Por otro lado, para las mujeres tenemos emociones como amabilidad, aterrorizada, impotencia, direct, depresiva, incluso histeria, que es algo que antiguamente los psicólogos usaban mucho contra las mujeres. Las mujeres estaban histéricas y se hacía que tenían el útero flotando por el cuerpo. Entonces, una emoción que no solo está asociada con elsexismo, está asociada con realmente misoginia y que los modelos hoy en día estén proponiendo este tipo de palabras. Creo que los sesgos se ven ya bastante claramente aquí. Y si queréis leer más los otros experimentos que hicimos esto, por ejemplo, a los modelos también esperamos que nos dieran explicaciones de por qué le habían dado ciertas asociaciones, qué emoción le habían dado, qué evento. Hay cosas bastante chocantes, pero os invito a alguien de Paper. Y lo que quería decir, que es un cuidado, es que este paper lo tuvimos que hacer en inglés porque desafortunadamente en español no existe el dataset que tenemos. El dataset que usamos es un dataset de eventos que los propuse la gente misma y ellos mismos dijeron qué emoción habían sentido en ese momento. Y realmente es un dataset que es muy útil, que se utiliza mucho en este contexto, en el contexto de emociones, no solo de los sesgos. Espero que realmente, espero que además nos alente a coleginar este tipo de dataset, sí, de herramientas en español también para poder hacer este tipo de experimentos y poder entender mejor además de tener sistemas de límpimos más útiles. Pero bueno, si queréis leer el paper, aquí está. Entonces, para concluir un poco y entender, las emociones tanto positivas como negativas. Cuando hablamos de que una emoción es negativa, lo que estamos hablando de que causa dolor, incluso estar enfadado, no te sientes bien, no es una sensación que quieras. Pero son esenciales para nuestras vidas y para las formas de interactuar con el mundo que tenemos. Y por lo tanto debemos considerarlos y apreciarlas todas en términos de lo que nos quieren decir. Y por lo tanto queremos pensar en cómo las está tratando la inteligencia artificial y cómo puede tener eso consecuencias materiales en nuestras vidas. Entonces, realmente, os invito a pensar en cómo queremos que la inteligencia artificial responda a cosas emocionales. Sí, tenemos que responder a cosas emocionales. A lo mejor eso es una cosa que podemos discutir luego, pero realmente cuestionar un poco la función de que las respuestas empáticas son siempre la mejor idea. Sí, además, en el contexto de estos sesgos. Si estás reforzando estereotipos que tenemos ya sobre las emociones que siente una persona o la otra, puede reforzar todavía más este tipo de sesgos, por falta de otra palabra. ¿Qué significa que a las mujeres, no solo nos diga, no, ahora mismo lo que estás sintiendo es probablemente existencia, hay un enfado y vamos a tratarlo así. Hay muchos estudios que demuestran que, por ejemplo, hoy en día muchas mujeres no se dan cuenta de cuándo se sienten enfadadas, porque la sociedad nos ha educado a no entender eso. Queremos que la inteligencia artificial haga lo mismo, a lo mejor no. Entonces, realmente podemos cuestionar y pensar esto. Yo os invito a cuestionar estas cosas más y apreciar más vuestras emociones. Y desde luego, como usuarios de la inteligencia artificial y como desarrolladores, si estáis tomando parte en este hackathon, os invito a ser más conscientes de todas las cosas que estamos asumiendo, que estamos dando por hecho que son buenas, y a incluir este tipo de teorías y a leer más sobre la filosofía, etcétera, en la hora de desarrollar más inteligencia artificial. Entonces, si os ha gustado este tema, aquí hay algunos otros papers que podéis leer abajo a la derecha. Tenéis el link al paper, un paper que escribí con Alba sobre la empatía en los sistemas conversacionales, pero además podéis leer un paper sobre antropomorfismo en la inteligencia artificial, un survey que hicimos sobre las emociones en el PLN, y además más cosas interesantes sobre la inteligencia artificial, sobre, por ejemplo, la cosa sexual, la inteligencia artificial, los sistemas de diálogo. Y con eso, y un bizcocho. Muchas gracias si tenéis alguna pregunta, algún comentario. Genial, muchas gracias, Amanda. La verdad que siempre me encantan las ginos, obviamente, porque las elijo, pero es que me hanencantado. Y además me parece muy importante también como esa invitación a reflexionar, ya no sobre cómo entrenamos los modelos del lenguaje, sino también eso enubre nosotros mismos, porque muchas veces efectivamente que no sabemos detectar muy bien cuáles son nuestras emociones, entonces ya como para hacerlo bien al pasarlo a la ida. Tengo, hay un par de preguntas. Bueno, la primera es Leonardo, te preguntar si te pueden invitar a dar un evento para la Provención de Violencia Escolar. Entonces bueno, ahí está tu LinkedIn tal, Leonardo te invito a, es una chica muy ocupada, pero igual sí que tenéis la oportunidad de que también de una charla. Sí que después tiene una pregunta, pregunta. ¿Hasta dónde la ida tiene lugar para opinar o aconsejar en temas sensibles? ¿No es mejor simplemente anular su opinión y dejarla solo para los humanos? Por una no es claro que diría que sí. El problema es que en cierto modo ya lo estamos usando y a veces no tenemos alternativa. Digamos que por ejemplo ahora con la crisis de la salud mental hay mucha gente que no tiene acceso a digamos por ejemplo un psicólogo o un psiquiatra. Entonces no digo que me parezca necesariamente lo mejor que usemos estos sistemas, pero si no tienes ninguna alternativa creo que la gente lo va a acabar usando y yo preferiría antes luego que tengamos eso en cuenta a la hora de diseñar estos sistemas. Entonces Leonardo, te acuerdo contigo que podría ser lo mejor anular esa opinión y dejar solo que los humanos sean los únicos en tratarlo, pero si los usuarios van a intentar hacer esto además no tenemos, no es fácil e incluso desde el punto de vista técnico evitar que la entidad artificial contesta estas cosas. No puedes detectar muy fácilmente si un usuario está intentando hablar de su salud mental porque si piensas en el lenguaje una algo como incluso en la cabeza, no hablemos ya ni siquiera de depresión, pero en la cabeza hay una forma infinita de refirirse a esto y poder detectar eso es ya es bastante difícil. Entonces si podemos en vez primero darnos cuenta de que probablemente alguien lo vaya a usar de esa forma y que es técnicamente muy difícil abordar ese problema, podemos por lo menos diseñar sistemas y desarrollar sistemas que sean lo menos dañinos digamos. Totalmente de acuerdo y la verdad que son temas muy complicados y preguntas también muy complicadas de responder. Justo un poco en la línea de haber cómo podríamos mejorar esto porque aquí has presentado, como evaluasteis diferentes modelos, pero a la hora de pues efectivamente haber utilizado un dataset que también pasa mucho que sólo existe en inglés y no tenemos algo en español. Gabriela nos pregunta a ver qué tipo de documentos o recursos sugerirías para crear dataset en nuestro entorno. También teniendo en cuenta que obviamente el perfil varón mujer puede ser súper diferente dependiendo de la de este contexto socio cultural. Pero esta es parte de lo difícil. Por ejemplo, he estado hablando con mis colaboradores, particularmente una de mis colaboradoras sobre la posibilidad de traducir el dataset que hemos usado a otros idiomas. Pero la verdad es que no es mi fácil, creo que parte del problema es que en países hispanos sobre todo se invierte menos en el desarrollo en la investigación. Entonces tenemos esa limitación. Pero creo que lo debería realmente inspirarnos a buscar esos los resources que nos hacen falta para para cocinar de dataset como éstos que en realidad son muy valiosos para para la investigación, no sólo de los esgos, pero también no es sólo para el para el belén en donde esto es interesante. Es interesante desde el punto de vista de la filosofía, de la psicología, de temas feministas. Usamos el belén como herramientas, pero nos puede servir para investigar sobre la humanidad. Entonces también podríamos colaborar, pensar en colaborar más con con otras disciplinas a los que también les interesa coleccionar y recolectar dataset como éstos. Y sobre todo teniendo en cuenta las diferencias culturales. Traducir este dataset por ejemplo, a lomejor en español no nos dice lo mismo que nos ha dicho en inglés ni refleja las mismas, los mismos problemas culturales que podríamos ver. Entonces yo realmente creo en la colaboración con con otras disciplinas como una forma de realmente entender mejor la tecnología y en el mundo todo nos ayuda. Totalmente sí. Además justo cuando estabas proponiendo lo de traducir estaba pensando en hacer algo tipo, por ejemplo, para el hackathon, sí que hemos traducido varios datasets de evaluación los normales, los del no normal, no existen, me refiero, los que se utilizan en la openLML y después como que hemos llamado para que la comunidad valide las traducciones. Y va bien va avanzando, pero lo que estaba pensando es que también si es justo un dataset para evaluarse es vos o cosas así, está el problema que decías el principio de la traducción y cómo validamos, o sea tendríamos que traducir cada por ejemplo en ors a dos veces, una que sea enfermero y otra que sea enfermera. Entonces claro debe ser también bastante, o sea es complicado, no es tan, si realmente crearlo desde cero o pensarse muy, muy bien la traducción. Es muy difícil. Mi madre se interprete y siempre me fascina, a veces como, no sé, a veces tengo el frío en español, cosas en inglés y siempre le pregunto a ella cómo digo esto, iré preparando la charla y trabajando este proyecto, Floría, mi colaboradora, dimos otra charla y básicamente consultamos con una traducción profesional sobre la terminología de muchas de estas cosas, no hay ciertas emociones que además no se traducen claramente, no es equivalente, hablar de enfado, de la ira en español no es lo mismo que hablar de anger en inglés, tiene un sabor algo distinto, no. Qué interesante. Justo tenemos una pregunta de Flor, ¿cuál es el aspecto que más disfrutas cuando trabajas en emociones sínticas en el LMS? En parte creo que la colaboración la verdad con toda la gente, contigo también Flor, pero además creo que me gusta mucho lo que estoy aprendiendo de eso y una cosa que las emociones que creo que obviamente todos los humanos las tenemos, todos las sentimos y creo que como cultura nos en general aprendemos que tienes que esconderlas, que no deberías tomar en serio tus emociones, que tienes que ser racional y racionales, que no escuches a tus emociones, que te llevan por donde no tienes que ir. Y en realidad lo que estoy aprendiendo mucho a través de este proyecto es que las emociones son muy importantes, claro que no puedes darle siempre rienda suelta y que te lleven, ¿sabes? Pero que realmente te están diciendo cuando algo no está bien o cuando algo está muy bien y tienes que seguir esa intuición un poco más, hablamos mucho de, por ejemplo en ninguno siempre dice que tienes que follow your gut, que sigas tu instinto y ese instinto son las emociones. Qué bonita la respuesta, me ha encantado. Y tenemos una última que es también abrir un poco otro melón, nos pregunta Adriana a ver si la Aya debería de tener la misma libertad de expresión que los seres humanos y cómo podríamos regularla. Y también bueno si sabes de algún sitio en el que se está haciendo ya, pues también le interesa. Ok, me parece que esta pregunta está bastante relacionada con los problemas, la investigación de safety, que se trata de conseguir que los large language models, los LLMS no produzcan cosas tóxicas o este tipo de cosas, que no te ayuden a suicidarte y cosas así. Y yo creo que no, que no puede tener la misma libertad de expresión de los seres humanos. En parte si lo pensamos los seres humanos somos responsables de las cosas que decimos, si digo alguna burrada la responsabilidad de esas cosas soy yo. Algo más de libertad de expresión, pero por ejemplo si hablamos de racismo o de sexismo esas cosas no forman parte de la libertad de expresión. Si dices cosas racistas la ley te puede penalizar por decir esas cosas. Si pensamos en por otro lado la inteligencia artificial no es una gente, no puede realmente no es algo que tomedecisiones, no es algo que interactúe con el mundo y que sienta repercusiones por las cosas que dice. Entonces no puede tener esa misma libertad de expresión al no poder ser responsables. Al arde de regularla de momento lo que hemos hecho ahora no es si un modelo dice una burrada digamos la persona responsable es la compañía que lo da la persona, esta compañía que lo produce y dentro de esa compañía hay alguien que es realmente responsable por eso. Pero no es fácil regularla y además a nivel tecnológico no es fácil controlar realmente lo que está diciendo el output que sale de la inteligencia artificial. Y creo que eso es uno de las cosas que hace la regulación muy difícil porque en realidad la tecnología no está ahí. Me interesan mucho los temas de regulación y muchas de las gente se preocupa de que bueno la regulación no puede mantenerse al día de la innovación de dónde va la tecnología. Pero yo creo que ahora con sobre todo en Europa no sé si habéis oído hablar del EUAI Act pero han introducido nueva regulación sobre estas cosas y si lees la regulación para los modelos o que llaman los foundation models, o sea modelos como Chachipiti. Yo creo que la tecnología no está al nivel de la regulación que tenemos que quieren eso que se pueda controlar mucho y además poder entender perfectamente qué tipo de datos se han usado para entrenar. Los que eso es estamos hablando de internet entero. ¿Cómo puedes analizar el internet entero? Entonces alguien para responder tu pregunta hay muchísima gente ahora investigando ese tipo de cosas. Por ejemplo, en nuestro mismo grupo de investigación, bueno Flori yo hacemos un poco de safety, además en su compañero en el trabajo Paul Rothger que le puedes encontrar en nuestra página web, trabaja mucho en estos temas y controla muchísimo, o sea que te podría interesar hablar con él y seguro que te puede decir más de dónde mirar, qué leer y a quien seguir en redes sociales para saber todo lo que está pasando. Genial, muchísimas gracias Amanda. Me alegro que ya no hay ninguna pregunta más. La verdad para una keynote son muchas, o sea que realmente sí que me parecía bueno y también a todas las personas existentes súper interesantes, o sea que bueno me alegro mucho. Muy buena manera también de terminar el hackathon porque estará nuestra última keynote. O sea que muchísimas gracias de nuevo y ya no sé. (Risas)
Amanda Cercas Curry
Presentación de los proyectos del Hackathon #Somos600M
Bienvenido a todo el mundo al día de presentaciones de los proyectos del hackathon somos 600m. 2.221.324 es la cantidad de ejemplos que habéis creado, regletado, formateado para dar lugar a un gran corpus en español. Entonces lo primero daros la hora buena a todos los equipos porque habéis hecho un trabajo magnífico. También muchas gracias a los patrinadores de oro, Jain Feis, Arjila, el Instituto de Ingenia del Conocimiento, Lenguaje Natural ahí, Saturde Isayay, Yamato, la Universidad de Puerto Rico y Kalamankran. Y justo tenemos aquí hoy a Rubén de la Fuente que es formador en Kalamankran que nos va a compartir unas palabras de introducción. Así que nada Rubén, todo tuyo, muchas gracias. Muchas gracias María. Ahí está, se está compartiendo la pantalla. Bueno pues muchas gracias por contar con Kálamo para inaugurar estas presentaciones. La reflexión que quería compartir es que la inteligencia artificial y el procesamiento del lenguaje natural están avanzando como huracán y elegir la palabra huracán no es algo trivial, está muy pensado. De verdad que la velocidad a la que está avanzando este dominio en los últimos dos años, yo diría, es bestial. O sea, a mí a veces incluso me genera ansiedad cuando sale una novedad porque da la sensación de que no te da tiempo de estar al día. Hay una idea de André Carpaty que fue director de Inteligencia Artificial de Tesla y fue fundador de OpenEYI que decía que el lenguaje de programación más potente es el inglés y si lo pensamos es una idea muy poderosa, o sea que simplemente a partir del lenguaje natural seamos capaces de generar instrucciones y que es un poco como frotar la lámpara para pedirle un deseo al genio y que luego eso se materialice pues es una barbaridad. Como un ejemplo de esto tenemos Devin que es un ingeniero de software basado en inteligencia artificial autónomo que se presentó hace unas semanas. La criatura por llamarla de alguna manera es capaz de razonar a largo plazo y de planificar. Tiene acceso a herramientas como por ejemplo un alegador o un editor de código y con estas capacidades pues es capaz de desarrollar e implementar aplicaciones de principios. Además tiene una interfaz de chat que le permite colaborar con humanos de tal forma que le podemos dar feedback sobre el código que escribe, sobre la aplicación final, entonces claro pues es una herramienta increíblemente potente. A ver si me deja. Claro el problema cuando vamos tan rápido es que mucha gente se puede quedar atrás y mucha gente puede perder el tren. Entonces a mí por eso me gustaría darle las gracias a SomosNLP y a Hagenface por organizar un evento como este que permite que muchas cosas importantes no se queden atrás. Entonces por ejemplo con esto conseguimos que no se quede atrás del español porque estamos, o sea, procesamiento del lenguaje natural, el inglés va muy bien pero claro hay más idiomas en el mundo entonces está muy bien pues que a través de proyectos como este se hagamos capaces de generar conjuntos de datos propios que incluso tenemos un leaderboard específico para el español. Otra gente que se puede quedar atrás es gente que no trabaja en empresas tecnológicas, en grandes empresas tecnológicas y entonces al estar fuera de ese espacio pues no tiene acceso a los últimos algoritmos o las últimas técnicas o la infraestructura que hace falta para probarlos. Y una vez más pues con SomosNLP y con Hagenface tenemos talleres, tenemos muestras de código, Hagenface también nos ha seguido GPUs durante el Hackathon para que pudiéramos desarrollar proyectos más ambiciosos y luego por otra parte también es muy interesante que no dejemos que se queden atrás perfiles humanísticos, no? A través del Hackathon pues hemos podido conectar perfiles técnicos con perfiles humanísticos. Los perfiles humanísticos se consiguen aprender sobre la parte tecnológica pero además de eso yo creo que aportan una perspectiva muy interesante por su conocimiento lingüístico y demás. Entonces pues nada,celebrar proyectos como este yo desde luego me apunto para para el año que viene y ya para cerrar pues simplemente decir muy brevemente que Calamos una empresa que está especializada en formación y servicios editoriales, es que luego es una hormiga que pone su granito de arena y bueno no voy a leer las diapos pero ahí veis que Calamos está muy comprometida con lo que es el tema del movimiento del lenguaje claro y entonces como tal pues tiene una sinergia muy interesante con todo este desarrollo que hay en la parte de la interacción artificial. Así que nada más pues muchas gracias y a disfrutar de las presentaciones y de los proyectos que seguro que serán muy muy interesantes. Genial, muchísimas gracias Rubén por esta introducción y nada vamos a dar paso a las presentaciones de los proyectos. Os hemos pedido para facilitar ya que estamos todos repartidos por todas partes del mundo pues que nos mandas disfragaciones que iremos poniendo aún aún aquí pero antes de empezar algo que se me ocurrió antes perdonadme os presento a Manu y a Flor ya seguramente les conozcáis pero bueno igualmente les te doy la palabra un minutín para que nos contéis un poquito sobre vosotros. Bueno en primer lugar muchas gracias María por organizar esta edición del jacatón creo que como ha dicho antes también compañeros son iniciativas súper interesantes para apoyar nuestra lengua y avanzar en el protecimiento del lenguaje natural en español así que encantada de estar hoy aquí. Me presento yo soy Flor Plaza, soy investigadora postdoctoral en el grupo Mila en el Pi en la Universidad de Buconi y bueno pues actualmente estoy investigando sobre temas relacionados con discurso de óptio, análisis de emociones y más recientemente todo lo que conlleva la ética en el desarrollo de los modelos del lenguaje cuando estamos generando emociones o discursos de hoy así que encantada de estar aquí de nuevo y con mucha ganas de ver la pilla de los proyectos. Bueno sigo yo si queréis, bueno yo creo que ya muchos me conocéis por yo creo como digo yo más bien por viejo que por diablo y en primer lugar también muchas gracias a todos por participar en un momento en el que como decían nuestros compañeros esto avanza tan rápido y además se ha democratizado tanto el acceso a los modelos yo creo que crear recursos de calidad es muy importante porque da acceso a cualquier persona por muy humilde que sea su equipo, su setup pueda construir modelos o simplemente soluciones de calidad y bueno un poco de mi background como sabéis pues soy uno de los principales contribuyentes de Javiens Freys a nivel de modelos open source aunque en mi carrera empecé haciendo backend, gestión de equipo, tindly pues hace como cinco años o así empecé con esto de los modelos del lenguaje los transformes principalmente y luego pues he estado trabajando en empresas como narrativa de machine learning y en el clibrain también ahí es donde coincidí con María también estuvimos haciendo algo por el nlp en español precisamente y actualmente soy jefe del área de ciencia de maiza donde un poco nos movemos del paradigma de los lm y lo que queremos es ayudar en general a salvar por así decirlo los problemas que tiene toda la idea que está encima de arquitectura transformer pues con soluciones de ingeniería basándonos también un poco en esto que sabéis que está muy de moda como es el lm o ese no el sistema operativo para basado en modelos del lenguaje genial muchísimas gracias entonces vale os comentamos cómo va a funcionar esto como os decía me habéis mandado vuestras presentaciones el máximo eran cinco minutos o sea que vamos a tener que respetar eso porque si las presentaciones hubiesen sido en persona hubiésemos estado ahí con el con el timer entonces vamos a irlas poniendo por orden medio random porque es en el que stringer ha decidido subirlas vale empezamos con el equipo de el corpus de aviación colombiano vale entoncesnada pongo el vídeo nos nos vais a ver nosotros y pues al final hacemos comentarios preguntas y en general esto para todos los equipos si hacemos una pregunta y estáis viéndonos en directo y queréis responder bueno si estáis en directo responde en el poder responder en el en el set vale venga pues empezamos con el primero y el río en el que el suelo de todos los gracias por estar aquí y en el nombre de mi equipo y gracias por la oportunidad de la caca con que estamos muy contentos con este proyecto mi nombre es Edison y este proyecto es caleta o alzé en el set raga accesibilidad la verdad en el set y el lm so y vamos a estar muy contentos si puedes superar con un like en nuestra madre y en el espacio y también en nuestro set de data so y puedes esconder el código de la caca y vamos a ver pero con esto so el primer es el río raga raga es básicamente colombiano y el regulación de la tienda y es básicamente muy necesario en el río raga porque si por ejemplo si no eres un esperado y si necesitas saber alguna información para eso es muy difícil porque primero, ¿cómo sabes de que data de que regulación es lo que se busca y también que información tiene un gran técnico y complicado aspectos, tal vez es complicado para nosotros que no son de el río para entender, por ejemplo, si quieres comprar algunas snags para el sol, es muy complicado saber qué es el proceso para eso pero necesitas seguir la regulación con eso en mente, tenemos una gran motivación y fue para mejorar la accesibilidad de esa información de la raga con eso en mente, tenemos que decir, ¿qué si usamos los modelos de lenguaje para hacer regulación de la regulación colombiana más accesible y entendible para el avión profesional y el público general? Eso fue nuestro objetivo y con eso en mente, escribimos tres diferentes objetivos específicos. La primera fue para desarrollar una comprensión de data de la raga de la inicia de los cinco, de los primeros cinco para el entrenamiento de la lm, la segunda fue para colaborar con expertos de la industria y académica para la notación de data de data y la refinación para mejorar la calidad de la data de data y la tercera fue para entrenar los lm con el data de la cura y evaluar los performance de los lm en sus respuestas. Con eso en mente, quiero decir y necesito decir gracias para la colaboración con la fundación universitaria de Libertadores hicimos una gran contribución y también para la laver la forma de la lm, Alex, Dani, Sergio y Felipe, que son expertos de la universidad de la Bachelor de Aronautica en Colombia, en Bogotá. Entonces, ayudaron mucho con el data y también con la evaluación en el modelo. Con eso en mente, tenemos la metodología y es dividida en el primer fase. La primera es la generación de data de data, donde tenemos un database con todos los PDFs de la raxa. Hemos tomado uno de ellos. Cuando tomamos un PDF, transportamos a un texto, y luego un format de texto, y luego entramos en un loop. En ese loop, llegamos a cada dos pages. ¿Por qué dos pages? Porque no queremos perder información, y luego enviamos información a la aplicación de la gpt para un modelo de opción de la raxa para generar los samples. ¿Qué es el sample para nosotros? Una pregunta y una respuesta en la raxa número. Con eso en mente, tenemos más pages en el PDF. Continuamos este loop. Si no tenemos más pages en el PDF, continuaremos con otro PDF. Si no tenemos más PDFs en el database, vamos a retornar el dataset con todos los samples. Con eso en mente, pasamos a la segunda fase, que es el laberinto. En el laberinto, montamos el dataset de raxa en un espacio de hogar usando Argila Framework. Argila es una franquilla, especialmente usada por annotadores. Ahí, la pregunta y la respuesta de los samples y, al mismo tiempo, la calidad de la rama del sample fue desde 1 a 5. Si la calidad era menos que 3, se descargaría el sample. Si la calidad es más alta que 4, se va a extender la modificación de los annotadores. Y cuando tenemos todo el laberintocompleto, pusimos la final versión a una fase de hogar. La segunda fase es el modelo de la franquilla, donde hemos empleado un modelo de franquilla en lenguaje, un laberinto en nuestro dataset, para aprender los espacios específicos y los contextos de avión. También el proceso de franquilla involucró una optimización de los parámetros modelos en una manera interactiva para reducir el uso de recursos computacional y mejorar las veces de entrenamiento. Esta parte es muy importante. Bueno, me siento fatal, la verdad. Pero el tiempo es el tiempo. Sí que pondremos el vídeo para que lo podáis ver. Pero esto es lo que tenemos para las preguntas, que también las podéis hacer sobre la parte del modelo y evaluación, y comentarios. No sé quién quiere empezar. Voy a empezar yo. Te voy a decir si no precioso el vídeo. Me ha parecido un proyecto superinteresante, sobre todo por el ámbito que trata del proyecto que es sobre la aviación, que es poco común verlo en el precisamente del lenguaje natural, y también por el idioma. Yo tengo una pregunta, que es más sobre el tema de anotación. Porque ha comentado que uno de los pasos que llevan a cabo es la anotación del corpo. Entonces, me gustaría saber en este ámbito en concreto cuáles son las principales retos que han tenido los anotadores a la hora de anotar el corpo. Estaría genial si también pueden facilitar la gran anotación para que los otros proyectos que también trabajan en el mismo tema puedan utilizarla o enriquecerla. Y con eso es todo. Genial, gracias Flor. Si hay alguien en directo, podéis ir respondiendo a las preguntas de Flor. También quería hacer un comentario que es que me parece increíble que hayáis conseguido anotar 25, bueno, sí, creo que 25,000 ejemplos. Porque como sabéis, durante el hackathon ha habido esfuerzo esta rotación de las traducciones de la OpenLM Liderboard. Ni de lejos llegamos a tanta gente. Enhorabuena creo que es muy complicado movilizar a tanta gente y sobre todo, también te vistís una buena idea con la colaboración. Manu. Bueno, a mí me llama gran proyecto. La verdad es que lo que nos ha dado tiempo a ver en el vídeo, el pipeline bastante sólido. Y a mí lo que me llama la atención es que se han utilizado esos modelos, hablaba de OpenLJ, pero también Open Source para, no sé si para crear datos sintéticos, pero por lo menos para darle formato de pregunta a respuesta a esa documentación inicial. Creo que eso tiene bastante valor para la comunidad también el enseñar a hacer ese tipo de cosas para que cualquier persona que tenga esa documentación en crudo y sepa cómo hacerla LLM-Freldy para entrenar un modelo y que sepa trabajar con esa documentación me parece que tiene mucho valor y me gustaría que nos comentaran también si han utilizado modelos OpenSour en ese caso, como nos comenta, ¿qué modelo ha sido? Porque hasta donde yo sé de los que mejor puntan a para esto es el último Moe de Mixtra, 9 de 22 billones y 9 de 7 por 8. Y bueno, pues me parece muy interesante conocer qué modelo puede funcionar bien para esos escenarios. Genial. Sí, seguramente estaban utilizando. O sea, teníamos la Enterprise que patrocinaba por Heimfeis, entonces seguramente estarían utilizando algún modelo bien potente, como nos cuenten. Edison está respondiendo a las preguntas de Flor, pongo aquí las respuestas, ¿vale? Los principales retos que afrontaron los anotadores fue que a veces el modelo no era muy acertado con las fechas y eso se tuvo que corregir, claro, datos concretos. Se observaban respuestas cortas y estas tuvieron que ser incrementadas, ¿vale? Le falta una palabra. Y bueno, aquí es algún... Usaron una penella y nos comentan. Y aquí utilizamos llamados, pero no utilizamos más recursos, en su mayoría de GPT. Genial. Pues muy bien, en Arawena el primer equipo. Y vamos al siguiente. Este equipo se llama Zinc Paraguayo y ha creado un LLM con la intención de dar a conocer más sobre la cultura guaraní. Muy buenos días, ¿qué tal? Mi nombre es Henry Quepahiro. Estoy grabandoeste vídeo antes de ir al trabajo, espero que salga bien. Yo formo parte del proyecto Zinc Paraguayo. Es un proyecto que busca expandir la cultura guaraní utilizando tecnologías emergentes, en este caso, la tecnología como la IA. Quiero empezar este trabajo diciendo la siguiente frase. Un pueblo que no conoce de su historia pasada, origen y cultura es como un árbol sin raíces. La cultura guaraní es tan rica en historias, en leyendas que lo que nosotros buscamos es preservar esto. No solamente para nuestra generación, sino que para las generaciones que vienen. Y esto lo haremos con las tecnologías emergentes contando la historia en un nuevo formato. Nuestro equipo está conformado por quien les habla, Henry Quepahiro, y los que fueron anotadores, revisores, Daniel Cabrera, Letiz y Abogado, Alberto Benítez y Emmanuel. El trabajo está dividido en tres partes. El primero sería la generación de un dataset, luego la creación de un modelo, y por último, una demo, como para demostrar cómo funciona el trabajo. Hablaremos ahora sobre la parte del dataset. El objetivo del dataset es llegar a las mil preguntas y respuestas. En este caso utilizamos el libro, Nyanduid Vizquera de Narciso Recolman, que engloba gran parte de la cultura guaraní. En este caso, Nyanduid Vizquera significa nuestros antepasados. Se extragieron preguntas y respuestas utilizando el modelo GPT-4. Utilizamos el modelo GPT-4 en forma muy manual. Y nos enfocamos en la siguiente apartados. ¿Qué sería? Generar preguntas y respuestas. Simple y cerradas basándose en el texto, analizando ideas centrales, significados, explicaciones y resumen. Englomamos en gran parte un análisis general del libro. No solamente nos basamos en preguntas y respuestas simples, sino que para extraer mucho más conocimiento del libro. La parte de revisión se dividió en cuatro partes. En este caso, cada uno analizó aproximadamente 300 preguntas y respuestas. Y una vez que se analizaron todas estas preguntas y respuestas, se englobó todo en el dataset que es "desomos" en el lp. "Datacet cultura guaraní corpus kit". Esta sería la estructura en la página. Como podemos ver, generamos 1.373 preguntas que para nosotros fue un logro. Nos marcamos inicialmente 1.000 y terminamos generando esto. También más o menos 130 preguntas y respuestas de evaluación. Estas serían los formatos para importar el dataset. Luego pasamos al modelo. Creamos el modelo "wa" y le pusimos estas frases. En la mitología guaraní, el padre de la sabiduría usaba un "wa" o "loro" para intentar comunicarse con su hijo supremo Tupá. Haciendo la misma analogía, creamos este modelo para disjundir la cultura guaraní a todos los hispanohablantes. Nos basamos en el modelo "mistral" de 7 billones de parámetros cuantizados a 4 Rubit. Hicimos un "fine tuning" con los siguientes datos. Mire los más relevantes que "R" es 64 y el valor de "alpha" es 128. Durante el proceso de entrenamiento, tenemos los siguientes datos. Los más relevantes fueron que el número de épocas fue 5, el "learning rate" de 2 por diálar, menos 4, y todos los otros valores se pueden visualizar ahí. Las métricas del entrenamiento fueron las siguientes. Empezamos con un error más o menos del 2.7 y llegamos a 0.1. Las métricas después del entrenamiento fueron las siguientes debido a la estrategia seleccionada. El gradiente normalizado también se fue en ver ahí. Y entonces lo que hicimos fue evaluar los checkpoints. Elegimos 2 checkpoints, en este caso el... Y hasta aquí. Bueno, ahora puedo empezar, yo si queréis. Me parece que me llamo bastante la atención cuando leí el tema del proyecto. Y dado que también nos interesa representar las diferentes variades del español en el corpus que estamos creando, quería saber si consideráis que el libro está escrito... Obviamente no está escrito en Guarani, pero si está escrito con una variedad, no sé si es de Paraguay o... Un poco más información sobre las variedades que consideráis que están representadas en vuestrodataset. Si quieres, María, continuo, tengo una pregunta o lo esperamos que conteste o si quieres disparo ya. Vale, igual se hablaba después en el vídeo, pero hemos tenido que cortar. Pero siendo un modelo de 7 billones, habiendo sólo 1000 ejemplos de entrenamiento me preocupaba un poco que no hubiese overfitting, el famoso overfitting. Me gustaría saber un poco qué pasó en la evaluación del modelo por estas dos consideraciones. Además que se entrenara durante 5 epochs, aunque comentaba también que al final había un checkpoint con 3 epochs que seguramente rendiría. La intuición me dice que iría mejor por el tema de que no son muchos ejemplos y el modelo es bastante grande. Vale, pues ya tengo respuesta en primera pregunta. El libro sí que está escrito en Guarani, entonces genial. Y ahora esperamos la respuesta de Enrique para tu pregunta. Flor, si quieres comentar o preguntar algo, puedes hacerlo mientras. Nada, comentar que es súper interesante, sobre todo también remarcar lo que ha dicho María, que es muy importante que no solo nos enfocamos en el español el 6, sino en todas sus variedades. Al final la riqueza lingüística del idioma se tiene también en cuenta. Es muy interesante y yo sobre tener una pregunta que es más relacionada con el tema de la creación de los datos y la notación, y es que si habéis tenido en cuenta cómo solventar algunos secos o si tiene algún tipo de seco el conjunto de datos. Genial, tenemos la respuesta para la segunda pregunta de Manu, que es que, claro, efectivamente la versión sigue en el vídeo, también les preocupaba llegar a la Overfitting, pero no. O sea que... ahí está. Muy bien. Genial. Tuvisteis igual un poco de follow up para esto, tuvisteis algo en cuenta, o sea para evitar que ya se llegase a la Overfitting teniendo en cuenta que había pocos datos, pero en general salió bien. Lejamos un poquito más y después vamos a pasar a un proyecto sobre detección de textos que están referidos al cambio climático o además de sostenibilidad. También bastante original. Creo que no tenemos más respuestas. Igualmente las respuestas que no hagáis en directo las podéis hacer... bueno, las compartiremos con vosotros las preguntas, pero aquí llega. Fueron diferentes evaluadores, por eso había variedad para flor. Podéis contestar un poco más extensamente a usted. Siguiente proyecto, bueno, enhorabuena, gran proyecto, y pasamos al siguiente sobre el cambio climático y sostenibilidad. Hola, buenos días a todos. Mi nombre es Gerardo Huerta. Formo parte del equipo que desarrolló el proyecto de identificación de textos relacionados al cambio climático y sustentabilidad, utilizando modelo de lenguaje pre-entrenado en español. Vamos a explicarle sí rápidamente cómo fue el desarrollo de nuestro proyecto en este tercer jacatón de Somos NLP. Ok, la motivación de nuestro proyecto es debido a que estas temáticas de cambio climático y sostenibilidad han estado en bastante sitio, digamos, son los trending topics que tenemos en muchos partes, tanto en artículos científicos, revistas, noticias, blogs, opiniones. Tanto así que ciertos proyectos, como por ejemplo el proyecto Drownedown, realiza repositorios en línea, digamos, que aglomeran las soluciones para combatir el cambio climático. Ya, este proyecto lo que pretende es que todas las soluciones estén en un solo sitio y que las personas puedan consultar estas soluciones y así tener una mejor idea o visión de cómo poder ellos combatir y aportar a reducir los efectos del cambio climático. Sin embargo, alguna de las limitaciones que hemos encontrado es que no presentan la última noticia o, digamos, ejemplos en la vida real de estas soluciones. Por lo que esta información es bastante ensis y se puede encontrar en muchos lugares. No se actualiza en cada cierto tiempo. Para ellos, lo que nosotros estamos proponiendo es crear una herramienta capaz de identificar los textos como abstract papers, titulares de noticias o artículos en general, que hablen sobre el tema de cambio climático, sus soluciones, sus efectosy estudios recientes, de tal forma que nos permita tener una base para desarrollar recursos más complejos en español, como dataset o enriquecer este tipo de repositorios sobre información del tema. Muy bien. Con parte del método que utilizamos, en primer lugar, hemos conformado un dataset para lo cual hemos seguido tres pasos. Primero la elección de datos. Hemos tomado fuentes open source. Hemos tomado diferentes formatos de texto para que tengamos diversidad. También hemos tomado textos cortos y textos largos para poder mejorar el modelo base sobre el cual estamos trabajando. Como parte del preprocesamiento, hemos realizado la traducción del dataset en inglés que se tiene como base y el etiquetado de registros con 0 y 1, si son relacionados o no a lo que es el cambio climático y sustentabilidad. También hemos quitado los hardstack, nomes de usuario, URL en el caso de los dataset de X. Y finalmente hemos realizado la formación y balanceo, que es básicamente unir todos los resultados del preprocesamiento en un único dataset buscando que los registros con etiquetas 0 y 1 tengan balanceo en cuanto a la cantidad. En la parte inferior pueden ver la tabla con los resultados obtenidos. Con estos set de datos nos procedimos a realizar el entrenamiento de un modelo. Nosotros seleccionamos un modelo base que haya sido entrenado completamente en datos de español, por lo cual el proyecto Vertin nos pareció bastante entractivo con su modelo Vertin Roberta Base Spanish, de cual es 100% entrenado en dataset en español, aparte que ha sido entrenado con la técnica de Mask Toke, lo cual beneficia para este tipo de fine tuning como por ejemplo la identificación de textos o la clasificación de textos. Se ha utilizado una GPU T4 de la cual Google collab nos ofrece de manera gratuita, y en total toda la arroyilla de carbono que se ha generado por entrenamiento, pruebas y validaciones del modelo ha sido de 0.1 kilogramos. Bien, los resultados obtenidos luego del entrenamiento han sido una pérdida de 0.15 en acura así de 0.97 y luego de realizada la validación se obtuvo el acurasi de 0.95, precisión de 0.91, RECAL de 0.99 y F1Score de 0.95. Como futuros pasos del proyecto hemos identificado la parte de generalizar aún más el modelo tomando datos de fuente diversa y mayor cantidad de datos, esto para reducir aún más lo que son las parcialidades del modelo. Crear un dataset con información de cambio climático y sustentabilidad basada en sectores para posterior realizar o desarrollar un modelo que no sólo nos ayude a identificar textos sino que también lo pueda clasificar basado en sectores, lo que sería como un toque en clasificación. Así puede clasificar el texto ya sea en que hable acerca de electricidad, de agricultura, de industria transporte, etc. Y finalmente un proyecto más avanzado, la creación de un modelo de cuestión en answering que brinde información relevante a hacer. Genial, gran proyecto también. Vamos a probar un nuevo formato, vamos a preguntar, hacer las preguntas por el chat para que tengáis un poquito más de tiempo en responder, ¿vale? Comiento con la pregunta de Flor, la Flor, ¿la puedes hacer tú? Bueno, de nuevo un proyecto súper interesante y también lo que he comentado antes, que es un tema poco común en el sentido de las proyectos que se suelen normalmente abordar en el Particio de la Lenguaje Natural. Sí que vemos el tema del cambio climático a la hora de utilizar estos modelos, de cuál es el reynimiento y demás, pero no en el sentido de abordar los datos, entonces es muy interesante. Mi pregunta es porque habéis comentado que en uno de los pasos traducí el Datáster de Inglés a la Español y para saber si ya habéis hecho una revisión rápida de algunos textos para ver si esa traducción estaba bien. Mi comentario aquí también un poco rápido es que me alegra ver que ante la tendencia está que hay de matarla a mosca un cañonazo y resolver cualquier problema con LLMS, que acordémonos que tienen billones de parámetros y seguramenteresuelven el problema pero luego ponenlos en inferencia y usarlos es otro cantar, es más costoso, pues que elijan un modelo en CodeRonly, un modelo de arquitectura roberta que como hemos visto en las métricas tiene una cura bastante alto y funciona bastante bien. Para mí eso es un punto a favor de no usar un LLMS cuando se puede usar con un LLMS tradicional. Totalmente. Y además es Bertín, hecho en casa. Miras, me suena. Genial, pues enhorabuena también a este equipo. Vamos a pasar al siguiente proyecto que es sobre lenguaje claro. Algo de lo que ahora también se está hablando muchísimo. Entonces vamos a ver cómo se puede aplicar esto al NLP. Hola somos Sergio Chicon. Hola somos Sergio Chicon y Rubén de la Fuente y queremos presentar nuestro modelo de lenguaje claro. El objetivo de este modelo es tomar textos de carácter administrativo que pueden presentar problemas de comprensión, no sólo para gente con un bajo nivel educativo, sino para la población en general. Entonces queremos hacer un modelo que tome estos textos y haga que resulten más usables por la población en general. Y con esto le doy paso a mi compañero Sergio que os va a contar cuáles han sido los procesos de preparación del corpus y de entrenamiento del modelo. Todo tuyo Sergio. Muchas gracias Rubén. Pues en principio estábamos dudando si elegir Fidoos o Gema, el modelo de Google, de dos billones de parámetros también. Optamos al final por Fidoos porque parecía que tenía una mejor comprensión del español. Gema al final fallaba un poco con algunas conjugaciones, formación de palabras y tal. Entonces al final elegimos Fidoos, ¿no? Para el entrenamiento del modelo utilizamos un dataset de entrenamiento con dos columnas, una de input y otra de output. El input estuvo definido por textos extraídos de la administración del gobierno de España, todos los ministerios y el gobierno central mediante técnica de web scrapping, sobre todo con beautiful soft. Y el output son esos mismos ejemplos del input, traspasados a un lenguaje claro, mediante diferentes modelos que fuimos probando. Vale, para la carga del modelo, como vemos aquí la tarjeta, utilizamos la configuración de bits and bytes, esta que vemos aquí cargamos el modelo en 4 bits para mayor procesamiento y mayor velocidad a la hora de la inferencia. Y también aplicamos técnica de low-range adaptation en las capas lineales del modelo, como venía la misma documentación, como se puede ver aquí en la misma tarjeta. Y iniciamos el entrenamiento con los argumentos que se pueden ver en la misma tarjeta del modelo. El entrenamiento llevó a lo largo más o menos unos 300 y pico steps, y tardó unas 2 horas y media para el mismo entrenamiento. Utilizamos una T4 en Google collab, aunque también provee como una V100 en su momento, tardaba bastante menos, pero bueno, la T4 tiene la ventaja de que es gratuita. Y luego, pues, simplemente con la estructura del prompt utilizamos esta misma plantilla de aquí, también sacada de la documentación de FIDOS en la que es muy sencillito este prompt. Simplemente determinas el mensaje del sistema y el texto a rellenar. Una vez con esta plantilla lo que hicimos fue, obviamente, formatear todo el dataset y luego toquenizarlo con el mismo toquez, nizador de FIDOS, y eso ya lo pasamos al entrenamiento del modelo. Para evaluar el modelo hicimos varias pruebas en cuanto a lenguaje claro, le pasamos varios textos de más o menos dificultad en cuanto a su comprensión, y el modelo es verdad que simplificaba sobre todo en tema de procedimientos paso a paso, te lo simplificaba todos los pasos, los tecnicismos te los aclara y varias las oraciones pasivas te las vuelve activas, pero es verdad que tiene algunos errores, sobre todo en la comprensión lingüística. A la hora de formar el lenguaje no sabemos si estos errores que tiene el modelo a la hora de escribir en español se deben directamente a los fallos que tiene el mismo modelo, el FIDOS para la comprensión del español o que en ese procesode entrenamiento se hayan podido olvidar algunas competencias que sí tenía el modelo inicialmente, lo que se llama "catastrophe forgetting". Así que, respecto a esto habrá que revisarlo, estos pequeños fallos, pero como primera aproximación para elaborar un modelo que se acaba de reescribir textos en lenguaje claro, está bastante bien, creemos que es un primer paso bastante importante. Había un antecedente que era CLIP, creo que era hecho por una asociación de Buenos Aires con apoyo al gobierno de Buenos Aires, que también hizo una iniciativa más o menos parecida, pero utilizaba... Bueno, pues, descubirtiéndemos más sobre esa iniciativa otro día. Tenemos dos preguntas, ya. La primera es... ¿de man? Sí, bueno, a mí me gustaría saber un poco cómo han... nos han comentado algo muy interesante, que muchas veces nos planteamos lo que hacemos, los 21 de modelos es... como mi problema final, el lenguaje objetivo, o el lenguaje que quiero que rinda mi modelo es español, cuál de todas estas alternativas rinde mejor, y no lo va a ser rinde mejor en español para venir y quitarme de eso. Yo ya han comentado que habían probado, creo, Yemma, Fidos y alguna alternativa más. Me gustaría saber el método, o cómo han probado, que es mejor en español Fidos, en este caso. Quiero un poco la pregunta que siempre hago también, ¿no? De ese modelo resultante, es mejor, o sea, hacer fine tuning. Es mejor el modelo fine tuneado que el modelo base, usando la modo Fuse-Ot, es decir, dándole ejemplos de cómo se desambigüan para justificar, claro, ese fine tuning. Esas son un poco mis dos preguntas y el proyecto me parece bastante interesante, ¿no? Genial. Yo me muero con otra pregunta, que es... Me ha parecido interesante la discusión que has comentado un poco sobre cómo habéis visto ejemplos en los que sí que simplificaba más o menos el texto, explicaba técnicismos, y a ver si habéis recolectado estos ejemplos por escrito en algún sitio, pues para que se puedan revisar, porque realmente creo que pueden ser bastante interesantes. Y bueno, en general el proyecto también es súper guay, como también nos dicen por los comentarios, nos comenta Aitor. Muchas veces no se ha � se encontrado para algún texto administrativo que no se hubiese gustado que nos pudiesen traducir. O sea, que... a ver qué tal funciona el modelo. Vale, siguiente proyecto es Noticia, con la IA. Y habla de... bueno, el objetivo es hacer resúmenes de noticias clickbait. Vamos a ello. Este sí que no lo voy a tener que cortar. Y querí que... ven, tenemos sólo cinco minutos para contar el proyecto antes de que caiga un asteroide. ¿Ya me estás intentando colar otro clickbait? Ay, sí, ya ves, un titular que solo invita a clicar, un montón de información irrelevante, y justo al final, pero sólo al final, la respuesta que necesitas. Un clickbait de manual. No sé cómo. Ya veo, a la era en 100 años. Bueno, no va a caer. Y estos clickbaits son un problema porque, al final, la gente se aburre. Si tú ves esta noticia, entras y ves que dentro no hay nada, sólo contenido irrelevante, te cansas de ello y al final acabas perdiendo la confianza de las portales de noticias. Pero lo peor de todo es que si la gente clica en este tipo de noticias, los buscadores lo van a priorizar y te van a enseñar cada vez más. Y entonces los periodistas, que hacen periodismo de verdad y buenas noticias, van a ver cómo enalientan sus noticias, dejan de ganar dinero y tienen que dejar su trabajo. Ay, bueno, bueno, es mal que nuestro proyecto, hemos intentado un poco ver cómo estamos para solucionar este problema. Hemos propuesto una tarea de evaluación para modelos en castellano en la que exigimos a los modelos que hemos evaluado, que interpreten los titulares, que busquen la información relevante dentro del texto y que la devuelvan de una manera agradable para los humanos, para leer. Y entonces, bueno, no ha sido un trabajo fácil. Ahí nos hemos dejado las neuronas buscando las respuestas en 850 documentos y entonces ahora tenemos 850 tripletas de titular clickbait, la noticia y la respuesta que esperamos. Ybueno, ¿qué? ¿Cuántos modelos hemos usado? Pues hemos evaluado un montón de modelos en español, todos los que están a la de moda, que la mayoría de ellos han sido entrenados para inglés, no para español, y queríamos ver cómo funcionan. Y esta es una tarea muy interesante porque realmente es muy difícil tienes que leer titular, entender qué es lo que dice, buscárame un montón de información relevante dentro de tu interesa y darse la de su harín. Entonces, lo que hemos visto en nuestra evaluación es que GPT4, como esperábamos, es el mejor modelo ahora mismo en español, pero el resultado acá en Modos Abiertos está muy cerca. Por ejemplo, el modelo no ser mes guí, o los modelos OpenChat o no ser mes sola, además son pequeñitos y pueden funcionar en tarjetas que puedes tener en tu casa. Así que la gente los puede usar. Pero bueno, aparte de eso, queríamos probar a entrenar un modelo con nuestros datos a ver qué es lo que pasaba. Así que hemos entrenado un modelo basado en OpenChat de 7 billones de parámetros, la gente puede usar en su ordenador porque es pequeñito. Y lo que hemos visto es que nuestro modelo Fintuneado se acerca mucho a las respuestas que dan las personas humanas, mucho más que cualquier modelo sin Fintunear. Esto quiere decir que hay mucho más gente mejora en español para hacer modelos que sigan instrucciones. ¿Por qué se mejora tanto entrenándolo? Sí, la verdad es que está bien saber que todavía hay bastante para hacer. Y, oye, de verdad que no notas el astero y de cómo llega. La prisione que encontréis un título al clickbait, podéis probar nuestro demo en somosnlt, sólo disimete el arte y os va a generar un resumen. Y, bueno, si alguien quiere trastear, mejorar, el código está disponible. Sí, todo nuestro código está en GitHub público y además tenéis todos los modelos y el dataset también en HighinFace para que lo podéis utilicar. Pues nada más, no es una obra. Es que siempre empieza hablando yo. Bueno, pues yo te, si quieres yo, nada, a mí me parece, está echando un vistazo también, me parece un proyecto muy interesante, muy útil y la verdad que es muy bien ejecutado. Y mi única pega, por poner un pelo, pero me ha costado ponerlo, incluso es que hubiera hecho en falta poner, o sea, que se hubieran evaluado también modelos más, o sea, no LMS, más humildes, como por ejemplo, yo recuerdo que en el pasado intenté resolver este tipo también de problema y utilizamos un long format, que podía, como sabéis, es un modelo de arquitectura en CodeR Only, pero que puede soportar hasta 4,000 tokens, incluso más. Pues por poner un pelo hecho en falta, pues que se utilicen modelos más pequeños, a ver qué tal lo hacían el problema, pero por lo general, por todo, me parece que está muy interesante y es muy útil. Ponte en modo no molestar o no turno o algo. Dale, Flor. Genial, bueno, me encanta la presentación, lo primero que tengo que decir, la he hecho súper amina, muy graciosa y bueno, también muy bien explicada, la verdad. Yo quiero decir que me ha gustado mucho ver el gráfico en el sé que se comparan diferentes modelos para el español y bueno, la buena noticia de que algunos funcionan bien para el tribunal, que ha sido sí es sorprendente, la verdad. Y luego también me ha dado mucho que entrenar un modelo que al final sea pequeño, como habéis dicho, que se pueda executar en cualquier ordenador y que está basado en ese vampirio, para mí también creo que algún punto a favor para el proyecto y bueno, el tema en sí está genial, sobre todo hoy en día y mi pregunta es, porque no me ha quedado muy claro, que medidas de evaluación habéis utilizado para ver qué es este modelo y también el que vosotros habéis entrenado, pues consiguen un buen entrenamiento en la tarea. Pues genial. A mí también me encantó la presentación, todavía lo tenía que decir. Superamena, es muy fácil de entender y de hecho también me parece súper interesante el hecho de que lo hayáis planteado como una tarea de evaluación que igual podemos incluir en el líder work queestamos creando. O sea que, ya verás. Genial, el próximo proyecto es sobre textos clínicos, que han creado un corpus enorme, lo sé, porque realmente lo que estamos mirando lo único es cuántos ejemplos ha creado cada equipo para hoy poder abrir la presentación con ese número enorme de 2 millones. Entonces, vamos con el siguiente proyecto. Vamos a poner la propuesta a la que hemos estado trabajando en este medio y demás, que en resumen ha sido en la generación de un gran corpus médico para el contexto biomédico. En primer lugar, pues nos hemos alineado con los objetivos de la UNO igual que el jacatón de salud y bienestar, educación y calidad, y fin de la pobreza para generar, bueno, para que gente por todo el mundo sea accesible a los LLMS, a esta nueva tecnología. Y bueno, para eso, la primera misión nuestra fue investigar que habían hecho todos los investigadores. Bueno, hemos encontrado otras herramientas como MET, SEP, que también han trabajado en este caso de uso. Bueno, el equipo que formamos este grupo, en primer lugar el doctor Dionis López Ramos de la Universidad de Cuba, en segundo lugar yo aquí de Madrid. Y bueno, también tenemos a Garyl que no participa en esta entrevista con otros que no han podido estar hoy, pero bueno, les tendremos en cuenta. Bueno, para enfocar el problema que tenemos es que hoy en día, sobre todo en mi médico, hay módulos en inglés, pero en español no hay, tenemos pocos recursos o conjuntos de datos y ya sabemos que estos grandes módulos de lengua genitano en una gran cantidad. Bueno, además de esa gran cantidad, sobre todo en el canal de la medicina, es muy importante la acreditación, que hay una certificación médica que avale, que son datos, bueno, primero que sean enviables de usar, ¿no? Y bueno, la solución que proponemos no es un conjunto de datos open source, que está ahora, bueno, que ya está en JavonFace, y bueno, y también el avance no a todo el mundo científico y a toda la empresa, sino a utilizar este conjunto de datos para la creación de módulos de lenguaje. Y ahora mi compañero os contará lo demás. Bueno, conscientes de que existen otras soluciones, otros módulos que se enfocan al medio médico, al dominio médico, sobre todo para el inglés como en este caso, quisiéramos investigar meditron y biomistral, que fueron los que guiaron un poco la forma de construcción de nuestro corpo, y en el caso biomistral que está hecho para un pequeño corpo del español. Nuestra propuesta se encuentra, como lo había dicho Álvaro, en "JubinFace", sobre el nombre Spanish Medical LLM, y la estructura que les propone a la comunidad de investigadores es 13 fuentes de información a las cuales continuamos aumentando, una cantidad de toques de más de 17 millones, un tamaño aproximado de 44 megabes en memoria, y bueno, una cantidad de más de 2 millones de entrada para el entrenamiento o el autosuste de modelos para el dominio médico en español. La estructura que seguimos fue una estructura, tratamos de que fuera lo más flexible posible, permitiendo que se insertara un texto en crudo, un tópico sobre el cual hablaba ese tópico, la especialidad, y en el caso del texto crudo y el tópico, pues el investigador va a encontrar o preguntas o casos clínicos o textos abiertos, y los tópicos pueden ser o la respuesta a la pregunta, o el tratamiento o diagnóstico asociado al caso clínico, al texto o al que estás mencionando. Un atributo importante es la fuente, porque demostramos en la carta, en el CART de este data sec, que especificamos o permitimos que el identificador asociado a esta fuente, el nombre de la fuente, la cantidad de toques y la licencia de uso. De esta manera, los investigadores podrán aportar mucha más información, y en el caso de que la licencia se restringe, pues simplemente filtrar y usar la parte del conjunto de datos que les más util a los propósitos de su investigación. Y también, la investigación en la creación o entrenamiento de un gran modelo de lenguaje, en el dominio médico para el español. El trabajo futuro de nuestrainvestigación se orienta a realizar el entrenamiento de un LLM para el español, debido a que no existe hasta la investigación que hemos realizado, continuar agregando información a nuestro conjunto de datos y tratar de generar datos sintéticos, porque también es objetivo, estamos previendo que pudiéramos usar puentes de datos de medicina natural que conocen en muchas partes de Latinoamérica. Muchas gracias. Nuestra call to action es que ahora tú puedes usar Spanish Medical LLM para entrenar los grandes modelos de lenguaje y dar soluciones y servicios de información de salud en latán. Muchísimas gracias por su atención. Gracias a todos, un placer. Me encanta el call to action del final. Y también el hecho de que como que hay un enfoque que no se suele incluir en estos bases de datos, en estos modelos que es la medicina más natural, más alternativa, digamos. Teníamos varias preguntas, da el mano. Sí, bueno, como tú dices María, muy interesante el modelo, la solución, se está poniendo un poco de módalo para entrenar modelos en dominios específicos o continuar el pre-training para dominios específicos. Y a mí me suscita un par de dudas. La primera y muy importante creo que es tratándose de este dominio médico o clínico, donde es muy probable que haya mucha información personal. Me gustaría saber si se ha tratado esa información, si se ha identificado, si se ha aplicado esa información como relación o directamente se ha licuado. Y luego también puesto que se parte de modelos, que han sido pre-entrenados en inglés, como han evitado ese catástrofe por Getting, que se produce cuando lo intentas adaptar a un idioma dominio distinto en el pre-training, pero no incluyes datos o parte del dataset, está en el mismo idioma que en el que se pre-entrenó el modelo, que eso le ocurre. Me suscita principalmente esas dos dudas, al igual que un poco también. Me hubiera gustado ver algo de evaluación, de cómo rícte, aunque sé que igual hubiese habido que crear un dataset adrede, pero sí que es verdad que existen dataset de modelos, de ámbito médico o clínico, de estilo en coderón y en los cuales se podría haber evaluado también. Sí, yo por sumarme un poco a lo que decía antes, realmente me parece increíble haber recolectado tantos datos del dominio clínico, y habéis comentado algo de datos sintéticos, pero no sé si en el de ahora ya no con futuros pasos, si también hay parte de ese dataset que habéis creado como equipo o ha sido todo trabajo de recolección. Genial. Entonces ahora se han acabado los que ya estaban subidos a stream. Ya el resto no son muy grandes, entonces voy a tener que compartir el pantalla, a ver qué tal funciona esto. Vamos a ver ahora un proyecto que pregunte respuesta sobre temas legales. Y ahora vamos a ver qué es el proyecto. Interesante, pues llegó un rato. Ahora si me veis esto, no? No, tampoco. Presentar. Vale, ahora sí, vale. Si vuelvo a pasar, a mí sabe antes. Lo pongo desde el principio, supongo entonces. Sí, o sea, se está escuchando, se escuchaba perfectamente, pero no sé lo diría, o sea, si quieres por lo desde el principio, sino por donde iba, porque bueno, se escuchaba bastante bien. Vale. Así se sigue viendo, o es al hacer la pantalla grande? Así se ve, y se ve, digamos, la vista de string yard. Genial. Ah, ¿por qué? Eso no es lo que quiero ver. Bueno. Y por qué no puedo... Quiero dar un cosas del directo, compartir pantalla. Bueno, pues lo hago aquí. Vale, vamos a hacer otra cosa. Vamos a ver otro proyecto. Esperamos que se vea bien. Vamos a ver otro proyecto. Esperamos que se vea bien. Vale, este sí. Uno, ya. Buenas tardes, somos Sara, Alberto, Oscar, Gabriel y Andrea. Y venimos a presentar nuestro proyecto en el jacatón de SomoNLP, que se ha dividido en dos proyectos. Uno de ellos es su llama, Cumevin y el otro es su llama. Recepta de la abuela, pero que lo hemos trabajado de forma unificada en torno al mismo tema. Como propone el modelo con votaciones que nos permiten adoptar hábitos saludables. Hay muchos recursos sobre recetas, sobre alimentación en inglés,pero no existen tantas iniciativas en español. Y, por tanto, en este proyecto nosotros nos hemos dedicado a escrapear distintas páginas web con recetas de origen hispanoh americano. La hemos unificado, hemos creado un dataset de instrucciones y hemos entrenado modelos de lenguaje que nos permitan poder realizar consultas, preguntas, etcétera, pero un contexto nutricional que nosotros le añadimos. Bueno, continuando con el dataset. Para su creación, como se mencionó, se realizó web scrapping en diferentes páginas web hispanoh americanas, latinoamericanas e internacionales. Las cuales fueron redactadas en español. En total pudimos recolocpilar 20.447 recetas, las cuales obtivimos los atributos como el nombre, los ingredientes, pasos de preparación, duración, categoría, entre otros. Para esta tarea utilizamos librerías como New Papers, Scrappy y BigDipFullSub y también la pide de Tuber de AI para poder rellenar algunos campos de país que nos faltaron. Esto se puede encontrar en lo que sería el model car de nuestro dataset, como se puede observar. Una de las tareas de homogenización que se realizó en el dataset fue la utilización del formato ISO A3 con los códigos de los países debido a que en la comunidad hispana como la internacional hay diferentes maneras de expresar los nombres de los países. Con respecto a las estadísticas, se hicieron visualizaciones con Workload haciendo uso de los coeficientes Tf y Df para obtener los resultados como ingredientes más utilizados por país o los términos más utilizados en los nombres de las recetas. Para la creación del cortón de instrucciones, primero vimos importante borrar aquellos registros que nos contarán con los datos más importantes de los datos de los nombres de los datos. Por ejemplo, el nombre de la receta y los registros que no tuvieran ingredientes o pasos son los datos más importantes. Después de esto procedimos a juntar todas las características, todas las columnas de los registros que juntan ingredientes, pasos, país de precedencia, duración de la receta y valor nutricional. Todos los juntamos en una columna para poder procesar datos con un modelo que te genere unas preguntas y una respuesta. El framework que utilizamos fue el de DC Label y el modelo que utilizamos fue el de Genus Drop para que a partir de este texto pudiera generar una pregunta, una respuesta y así hacer el entrenamiento posterior. Este entrenamiento ha sido realizado investigando diversos modelos partiendo de Mistral 7b que es algo más lento, Tinny Yama que es algo más rápido pero menos preciso y ha encontrado el punto medio en Genma, en Genma de 2 pillones de parámetros a 4 bits de la librería Slot. Esto es el doble de rápido que los anteriores y utiliza la mitad de UberRAN. Entonces con esto tenemos un entrenamiento que ha ido de forma incremental. Primero con 10 recetas, luego con 100 y al final con 2500, durando aproximadamente dos horas en una máquina de hacking phase T4M. En el paper aparecen los parámetros usados y también aparece una gráfica donde se ve el gráfico de pérdidas, viendo que va siendo decreciente hasta un valor de 1,3 con un rizado bastante bajo. Se ha utilizado el gradient check point para hacer un resum y poder reentrenarlo de forma iterativa. En el entrenamiento hemos evaluado con Vertescore el parecido con las recetas originales haciendo una precisión relativamente alta de 0,67. Por último el impacto medioambiental se ha calculado con las 50 horas de entrenamiento que hemos tenido obteniendo 0,7 kilogramos de toneladas equivalentes de CO2. Y por último los resultados pues en un ardemos radio que hemos hecho recetas de la abuela y come bien, como se puede ver ahí en la pantalla donde se le da un contexto utilizado con técnicas de phase y RAG y se hace una pregunta y el modelo nos da una respuesta. Así que eso es todo y muchas gracias por su atención. Bueno, empiezo comentando que me ha encantado que ya no solo este proyecto pero también bastantes equipos de esteaño que han sentado sus papers al workshop de Latinx in NLP. O sea que también enhorabuena. Y muy bien hecho el paper ya que estamos, es original presentarlo con hacer la presentación siguiendo el paper pero lo bueno es que también así pues seguís las secciones y comentáis todo lo que suele ser más importante. Mi pregunta es que en general tenéis, bueno habéis conseguido muchísimas recetas y sí que está bastante, o sea la proporción de recetas de España es bastante más grande que el de otros dos países y mi pregunta es si no encontrasteis páginas web o hicisteis, o sea, qué medida hicisteis, pues recolección de datos y busqueda más estautiva para, o es que tampoco estaba en vuestros objetivos. También puede ser una opción. Tenéis otra pregunta? Todo muy bien explicado. Perfecto. Pues vamos a ver si puedo poner ahora bien otro de los proyectos. Vamos con él preguntas y respuestas de legal para recolgarnos. Ah, es verdad. Es que es cerrado porque sí que se nota, pero no sé si es porque tuvieron algún problema a la hora de grabar su vídeo, que entiendo que sí. Entonces bueno, subiremos este vídeo con voz cuando nos lo pase el equipo. Entonces vamos a poner el último vídeo que tenemos. Ah, no, ya está. También tuvimos otro problema con otro de los vídeos. Entonces bueno, no os preocupéis, vamos a subir todos los vídeos uno a uno y estarán ahí para que la gente les pueda ver. Pues podéis compartirlos, podamos haceros preguntas, respuestas. Compartimos también todas las preguntas que os hemos hecho durante el día de hoy. Y esperamos vuestras respuestas también para tener en cuenta toda esta información en la evaluación. Dado que es el final, no sé si Manu Flor queréis hacer algún otro comentario final. Yo por mi parte la verdad que daros la número buena a todo el mundo de nuevo. Han sido proyectos increíbles. La parte de las presentaciones iremos mejorando de año a año. Pero realmente los proyectos estoy súper contenta con el resultado. Entonces, y no le voy a dar nada. Sí, yo por alusiones también creo que este es el tercer hacazón que hacemos María. Y bueno, contento de ver que ha ido increscendo en calidad para mí los proyectos y sobre todo en cantidad de recursos que se han aportado al ecosistema. O sea que muy contento también con los resultados, la implicación y el nivel que veo que va subiendo, no? Hacazón a hacazón, mola mucho, no? Esa es el nivel de implicación. Bueno, y yo para terminar también trasladaron mi enhorabuena. Es increíble lo que se puede hacer en solo un mes o incluso menos tiempo. Y son súper interesantes todos los proyectos. Y sobre todo lo importante es que al final se va a liberar los recursos en términos de dataset y también de modelos que seguramente es que comincian que van a ser súper útiles para la comunidad. Y bueno, y también por último, trasladaron mi enhorabuena a los organizadores. Y al final se crea una comunidad para el español que es muy necesaria y toda su variedad de lingüística. Y también, pues súper importante que al final no se entre solo en España, sino que también tenga muy equipos de toda Latinoamérica y de todos los países y panablanca. Así que enhorabuena y si ojalá siga mucha media edición en más. Sí, sí, sí. Para retomar un poco lo que habéis dicho, tanto Manu, lo de que el nivel va subiendo es increíble. O sea, ha habido proyectos muy buenos todos los años, pero realmente creo que también como organizadores estamos mejorando. Pero creo que también, pues eso, el nivel está subiendo, estoy súper contenta. Y también otra cosa que me alegro bastante es que cada vez tenemos, como decía, el lugar más presente en Latinoamérica. Entonces este año creo que ya es justo lo que alcole ayer, pero es como un 40 y algo. Entonces bueno, también hay mucha gente que se conecta desde países que no son hispanohablantes. Entonces supongo que son hispanohablantes por el mundo. Pero sí, sí, hay un gran porcentaje cada vez más alto de gente que muchos países. Entonces el proyecto, estecuele multimodal, creo que no me lo mandasteis. Pero bueno, volverás a reenviármelo y voy a decir mi correo aquí. Bueno, todo el mundo que estés aquí ya sabéis muy correos, pero... Este proyecto por echar un cable creo que es el de traducir cuérise en lenguaje natural en español. Pero si está en el Excel de evaluación del proyecto, pero claro, si no te han mandado vídeo, Mario, pues no podemos verlo. Sí, el del traductor inclusivo... El traductor inclusivo es el que... ah, el traductor, pues sí le sí que no lo hemos puesto, es el que estaba yo poniéndolo. Es el que no estaba compartiendo pantalla, ¿verdad? Puede ser. Pues lo pongo, Flor, si te tienes que ir, puedes irte ya. Ponemos... No te preocupes, no puedes. Vale, podemos ver un último vídeo. Perfecto, genial. Puede salir. Hola, vamos a presentar nuestro proyecto "Traductor Inclusivo", el cual forma parte del jacatón de Somo en LP 2024. El equipo que ha colaborado en este proyecto hemos sido Andrés, Immanuel, Gaya, Josué y Yo Miguel, que hemos llevado a cabo distintas labores como, por ejemplo, la creación y limpieza de un dataset y también la entrenamiento y despliegue de un modelo de NLP. La motivación del proyecto viene por el uso secado del lenguaje, el cual puede crear distintas opresiones de ideología, género o marginal grupo. Para ello, queremos crear un dataset y un sistema el cual pueda servir como herramienta para reescribir textos a un lenguaje inclusivo. El dataset que hemos creado usa parejas de textos, del lenguaje excluyente y del lenguaje inclusivo. Hemos también etiquetado por tipo de dificultad de traducción y por los orígenes, por los que vienen cada dato. Hemos usado chatGPT, hemos usado distintas guías de texto inclusivo y también hemos usado un dataset previo llamado Neutrales, pudiendo alcanzar la cantidad de 4196 datos. La tarjeta del dataset está en el hub de HagenFace. El modelo que hemos usado ha sido un Fine Tuning de Aguilas 7B, usando culora con 4.018 y usar lenguaje español y GPU Nvidia T4. La tarjeta del modelo lista para ser usada está subida también al hub de HagenFace. También hemos desplegado una demo para poder utilizar y ver cómo funcionaría nuestro modelo y por ejemplo en las enfermeras se forzaron mucho durante la pandemia. Esto lo cambiaría el personal de enfermería se forzó mucho durante la pandemia omitiendo el exército de que toda la enfermera tenga que ser mujer. Y ahora mi compañero Andrés va a comentar los resultados de este modelo. Para analizar estos resultados hemos utilizado dos métricas distintas. Por el lado, la métrica Sacrebleu que pone por encima la corrección gramatical de las frases antes que de las palabras utilizadas, y después la métrica Bleu, que es así tienen cuenta que las palabras utilizadas coinciden. Entonces hemos hecho una media armonica ponderada de estas dos métricas distintas. Y estos son los resultados que hemos tenido. Vemos que hay algunos resultados muy buenos y otros que también importante que son muy malos. Vamos a ver un poquito más a esto a que se debe. Aquí vemos que sobre todo estos datos muy malos se ven en la métrica Sacrebleu. Si vemos por qué, vemos que muchas veces hay predicciones que coinciden con el target, por ejemplo David es vendedor, David es vendedor, y la métrica Sacrebleu le ha dado una puntuación de cero. Eso es porque la métrica Sacrebleu también penaliza los textos que son muy cortos. Si seguimos hacia abajo, vemos la puntuación del modelo por las distintas dificultades y vamos a hacer un poco más de cerca aquellas dificultades que tienen poca puntuación. Como por ejemplo, el plural complejo, las de Cultura o Misión. Dale para abajo, Miguel. Entonces, aquí vemos que muchas veces estos malos resultados se deben a que existen fórmulas equivalentes del lenguaje que son igualmente válidas. Por ejemplo, los empresarios chinos se han traducido como las empresarias y empresarios chinos. Cuando en el target hayan puesto la comunidad empresarial china.Normalmente, ambos son fórmulas equivalentes que también son inclusivas y elegir una frente a otra suma diez cuestiones estilísticas más que de corrección del lenguaje inclusivo. Y ejemplos como ese, pues muchos otros. Si iremos la puntuación que obtienen los textos en función de la longitud del texto inicial, vemos que en general los resultados son bastante buenos. Si es verdad que los textos cortos tienen poca puntuación, eso puede ser debido a lo que hemos comentado de la métrica Sacrebleu. Y también vemos que, conforme los textos hacen largos, parece que disminuyó un poco la puntuación que obtiene este modelo. En cuanto a las limitaciones, pues el modelo no se ha entrenado con contextos largos y complejos, sino que mayoritariamente se ha entrenado con frases en las que los trimios van a modificar si no traban al comienzo de la frase. De vuelve solo una única opción, aunque hemos visto que existen varias opciones equivalentes, que son válidas, y tampoco detecta o modifica los discursos de hoy. Otras limitaciones son que a veces hay pequeñas pérdidas de información, un uso forzado del término personas a veces, e incluso falta de contexto. Si seguimos, para el futuro vemos que se podría cambiar la cantidad y la variedad de los datos para extender el modelo a textos más grandes y complejos, incluyendo más dificultades. También se puede hacer que el modelo ofreciera más de una respuesta inclusiva, para después poder elegir, y también se podrían suprimir los mensajes de otra. Así que, en conclusión, tenemos un modelo que funciona bastante bien en textos cortos, el Dasek que hemos creado se podría utilizar para hacer 21 de otros modelos de lenguaje, y todavía queda por hacer el desarrollo de la opción de textos más largos, y también que el modelo pueda ofrecer varias respuestas posibles. Muy bien, eso ha sido todo. Muchísimas gracias. Comentarios. Bueno, yo lo primero, gracias por recordármelo. Algo que me gustó es que, bueno, en realidad me parece un tema súper relevante, bastante sensible también, y algo curioso también me gusta que hayáis retomado un tema que se comenzó a tratar ya en uno de los jacatones anteriores y pudieses reutilizar lo creado. Sí, y puedo continuar. Sí, la verdad es que en particular me interesa bastante. Creo que ahora pone la uge de los modelos de lenguaje más importante que nunca tratar de desarrollar sistemas para el seco, pero sí me gustaría preguntar acerca de la notación de datos, porque así es también un tema sensible, pues es importante que se tengan muy en cuenta cuál es la calidad de los datos a la hora de anotarlos. Cuántos anotadores estuvieron en el proceso de notación y cómo se evalúo esa notación. Es interesante saber. Genial, a ver si nos contestan en directo, porque como están aquí en el chat, igual sí. Sí, yo también sumarme en general tener cuidado cuando se anotan temas tan sensibles como podrían ser este. También temas de, ya hemos comentado con temas clínicos, de medicina o también de psicología. Ha habido un par de proyectos que no han mandado presentación, pero sí que han creado proyectos interesantes, que siempre hacía hincapié en tener cuidado con todos sus sistemas. Bueno, tienes alguna pregunta mientras para dejarles un momento o si no puedes. Es igualmente de acuerdo con lo que ha hecho Flor y con lo que ha dicho tú, es tan necesario este tipo de medidas como críticas. Veo que sí que había un análisis del post-training de esas métricas, de cómo rendía el modelo, cosa que se valora. Pero cómo se ha generado ese dataset y cómo se ha etiquetado es muy importante que guía de anotación se ha usado, en qué se han basado y sobre todo creo que he escuchado también que se ha utilizado algún modelo de OpenEJ, con lo cual hay recordar que es importante que cuando anota un modelo estamos asumiendo los ecos de ese modelo. Entonces es muy importante este tipo de iniciativas, pero son muy críticas y hay que tratarlas con mucho cuidado y con el mismo que se merecen. Genial, ya tenemosuna respuesta. Andrés Gaya del equipo ha sido la principal revisadora de los datos. Muchos de los datos han tomado directamente de ejemplos de guías de lenguaje y se han multiplicado utilizando las mismas fórmulas que aparecían en esos guías. Creo que es una buena respuesta también el hecho de que obviamente soy su equipo pequeñito y tampoco había muchísimo tiempo, pero en general cuando hay anotaciones de este estilo sí que está bien que haya varias personas que anoten los ejemplos, porque todo el mundo está asagado y yo también estoy asagada y Gaya es lingüista. ¡Ay! Sí, quién es. Sí, eso está guay. También algo que sí que hemos intentado animar mucho son los equipos interdisciplinares que también comentaba al principio en las primeras palabras del evento. Entonces, bueno, Floria, tu pregunta no sé si quieres alguna opción más o pasamos para el último proyecto. Genial. También gracias por recordármelo. No lo compartísis conmigo, pero sí en el form. O sea que aquí está el modelo último DAAL de SQL. Vamos allá. La opción precisa de consultas de usuarios en SQL es crucial pero desafiante. Los LLM han avanzado pero dependen del inglés y pueden cargar de conocimientos específicos en bases de datos, lo que puede generar consultas inestactas o inutilizables. Nuestra propuesta para solucionar esto es una herramienta multimodal que permita a los usuarios interactuar con bases de datos en español mediante comandos de voz o texto con respuestas en texto, audio o imágenes. Esto consiste en implementar un LLM y un SQL para interactuar con bases de datos en español en un enfoque multimodal. Bueno, pues yo les presento aquí el diagrama de nuestro proyecto. Lo primero que se realizó fue una recolección de datos. A estos datos se les hizo una aumentación de calidad. Luego con estos datos se hicieron fine tuning con dos modelos de lenguaje. Se utilizaron técnicas como CULORA y LORA y como PES. Posibilmente se planea meterlo que es una autocorrección al modelo para que se vaya corregiendo al usuario y al último hacer un interfaz de usuario para que hay una mejor comunicación en el usuario del modelo y le pueda dar las respuestas ya sea en audio o en texto. Primer paso. Como primer paso, nuestro proyecto fue CREAUNT DATACET. Para lo gracias DATACET nos guiamos de un SQL. Nuestro dataset contiene cuestión. Las preguntas contienen las preguntas generadas que pueden generar los usuarios. ASGWARE las preguntas SQL correspondientes a las preguntas. CONTEX información textual que puede ser útil para comprender y recordar las relaciones entre preguntas y respuestas. Una vez se logró hacer el dataset, lo subimos a Google Face para su uso correspondiente. Ahora nosotros nos dedicamos a hacer fine tuning en dos modelos. Los cuales fue Codellama y Mistral, CITV. Ambos fueron cuantizados a 4 bits. Ya que nos enfocamos de que pudiera ejecutarse en la mayoría de equipos disponibles. Hemos mostrado un mejor resultado ya que como originalmente están entrenados en idioma inglés al entrenar el fine tuning en idioma español. Se notó un mejor resultado ya que nos damos un tos en adaptados al idioma español. Bueno, pasando con una demostración de la parte multimodal. Primero dimos al usuario que pudiera elegir entre si quiere escribir el texto o si quiere pasar por vos. En este caso hicimos una prueba con vos, en donde pusimos el prompt de dime todos los profesores que parten la materia de mercado técnico por medio del agua. Entonces, pasando de ahí, utilizamos Regex, el cual nos ayudó a filtrar simplemente que nos mostrara nuestra consulta SQL, la cual vamos a usar para después implementarlo, pasarla a nuestra base de datos. En este caso la cargamos desde Heimfeis para así hacer la consulta que requeríamos. Nos muestra los resultados de dicha consulta que hicimos y ya de ahí nada más utilizamos la librería para una librería para poder utilizar el audio y poder que dijera por vos lo que tenía la consulta. Ok, yo les mostraré loque es la base de la interfaz. En la interfaz tenemos el prompt en el cual vamos a ingresar profesores que imparten la materia de administración. Ok, entonces tenemos así, metemos el prompt y nos estarían listando los profesores que están impartiendo esa materia. Ok, también darnos una opción en la cual por medio de vos vamos a grabar la voz, cuáles son los profesores de mercadotecnia y sus horarios. Y al ingresar estos resultados tendríamos como resultado los nombres de los profesores con sus respectivos horarios. También por medio de un mismo prompt de texto podemos poner cuáles son las materias que imparte la maestra edit. Y con esto nos estaría imprimiendo de una manera gráfica lo que es la tabla o la materia que la imparte. [Música] [Música] ¿Hemos perdido a María? Sí, ahora. Ya está de que hay de vuelta. Perdón. Dale. Bueno, a mí el proyecto, la verdad es que me parece interesante dos puntos sobre todo. Primero la generación de ese recurso. Había visto muchos datos de texto natural SQL y viceversa, pero la verdad es que no los he encontrado en español. Y luego me gusta también que nos enseña un proyecto en tu en, desde la creación hasta como en ese mock de un móvil. Se usa ese modelo, se ejecuta esa query que genera y se ven los resultados. Eso también me gusta porque muchos se quedan en... Y aquí está el modelo y a mucha gente le cuesta ver que detrás de eso hay una o muchas posibles aplicaciones. Y luego puntos que me queda un poco de duda es ese dataset es lo suficientemente diverso. O sea, más información de cómo se ha generado, qué categorías comprende. Se dice que se hubiera experimentado, ¿no? Con qué modos se ha experimentado, si se ha experimentado con varios modelos. Y sobre todo y más importante, hay una frase que nos comentan de que se nota, ¿no? Que el modelo es mejor que la versión en inglés. Bueno, ese se nota si no hay una evaluación cualitativa o cuantitativa, pues es muy complicado para el resto de personas. Saber si nos merece la pena usar ese modelo por el simple hecho que entiende el español o un modelo preentrenado en inglés. Que como todos sabemos, pues algo de español han visto y funcionan de aquella manera, ¿no? Luego también el tema multimodal, ¿no? Importante que dice una solución multimodal. Y sí que igual es multimodal en el sentido de que puede trabajar con audio también. Pero multimodal, creo que cuando la audien multimodal en este mundo nos refirma a modelos que procesan el mismo modelo audio y texto en este caso. O imagen y texto. Y creo que el tipo de modelo, ¿no? Que sea entrenado no es multimodal de manera inerente, ¿no? Sino que son dos modelos. Por poner un pero. Cool. Yo pongo otro pero. No he tenido que pararlos porque sí que han sido cinco minutos, pero no sé si habláis tan rápido en directo. Pero bueno, realmente creo que también para sumar a mí lo que decía Manu me ha parecido muy original que la demo sea, pues como sería la demo de un producto digamos, estamos muy acostumbrados a la demo de High-Fix, que me parece genial y que son las que utilizo simplemente pues algo diferente y que aporta este proyecto. Y nada, como estáis por aquí no sé si vais a querer responder a las preguntas de Manu. Os dejamos unos minutines mientras nos despedimos por no sé, mi segundo o tercera vez. Voy a repetirme, pero bueno, enhorabuena a todo el mundo. Geniales los proyectos. Espero que hayáis aprendido mucho y que tengáis ganos de repetir o de seguir desarrollando vuestros proyectos y os podemos ayudar en lo que sea encantados. Y ya es mi último mensaje de despedida. ¿Vas a traer? Nada, yo lo mismo. Un placer. Muchas gracias a todo el mundo por participar y por el nivel que sean auto impuestos y en los proyectos y sobre todo como siempre decimos por los recursos que han generado para el español. Ay, perdón, dale. Lo que sí voy a decir es que no sé si lo sabéis, ya hay un, hoy justo lo anunció Alejandro Baca, ha dicho que ha entrenado, bueno,publicó un nuevo dataset, o sea, modelo de instrucciones y ha dicho que había utilizado los datasets del hackathon. O sea, que enhorabuena porque ya comienzan las primeras aplicaciones. De hecho, bueno, como sabéis, la idea es combinar todas las instrucciones que se han creado para crear un gran corpus que seguiremos alimentando con diferentes iniciativas. Y bueno, así que bueno, que sepáis que ya tiene impacto todo esto que habéis creado este esfuerzo. Final, yo para terminar, de nuevo, reiterar mi enhorabuena, todo lo equipo y sobre todo al final la comunidad grande que se crea con este tipo de iniciativas que creo que es muy importante. Y nada, no era buena de nuevo. Real, nos vemos. [no riendas accur considerablemente]
María Grandury, Flor Plaza y Manu