Nombre
stringlengths 54
100
| Transcripción
stringlengths 12.7k
85.9k
| Autor
stringlengths 10
33
|
---|---|---|
IA y Modelos del Lenguaje, retos y oportunidades con Elena González-Blanco @Microsoft | #Somos600M | Hola
a
todos.
Soy
María
Grandury
y
os
doy
la
bienvenida
a
la
primera
keynote
de
nuestro
hackatón
internacional
de
procesamiento
de
lenguaje
natural
open
source
en
español.
Hoy
descubriremos
los
actuales
retos
y
oportunidades
de
la
inteligencia
artificial
y
los
modelos
del
lenguaje
con
Elena
González
Blanco,
GEDO-BII,
4M
Digital
Natives
y
Microsoft.
Recomendamos
esta
charla
para
todas
las
personas
interesadas
en
la
revolución
de
inteligencia
artificial
que
estamos
viviendo,
dado
que
hoy
inauguramos
las
charlas
de
especialistas.
Voy
a
aprovechar
para
recordar
en
qué
consiste
este
hackatón
y
después
ya
daré
paso
a
Elena
que
ya
está
aquí
en
el
backstage.
El
hackatón
tiene
por
objetivo
facilitar
la
creación
de
modelos
que
representan
la
diversidad
de
las
personas
disponibilizantes.
En
esta
tercera
edición
nos
sumamos
a
la
revolución,
no
sólo
de
la
IA,
pero
de
los
grandes
modelos
del
lenguaje
y
fijamos
dos
objetivos
que
tienen
un
gran
impacto.
El
primero
de
ellos
es
crear
el
mayor
corpus
de
instrucciones
en
español
y
lenguas
cooficiales
que
representen
las
grandes
variedades
habladas
por
los
600
millones
de
personas
disponibilizantes,
de
tal
manera
que
después
con
ese
corpus
podamos
entrenar
modelos
inclusivos.
Y
el
segundo
objetivo
que
tenemos
es
crear
la
primera
líder
board
pública
de
LLMS
en
español
que
nos
permita
estandarizar
cómo
evaluar
y
comparar
los
diferentes
modelos
en
español
y
lenguas
cooficiales.
Las
inscripciones
siguen
abiertas,
o
sea
que
invito
a
todas
las
personas
independientemente
de
vuestros
conocimientos
a
participar
ya
que
hay
tareas
de
todos
los
niveles.
Habrá
equipos,
se
puede
participar
en
el
nivel
de
la
mente
o
hasta
cinco
personas
y
como
siempre
intentamos
que
los
proyectos
tengan
un
impacto
social
relacionados
por
ejemplo
con
los
objetivos
de
desarrollo
sostenible
de
la
ONU.
Y
bueno
además
del
hackatón
pues
tenemos
Keynotes
como
la
de
hoy
en
la
que
especialistas
del
campo
de
la
AIA
nos
irán
contando
su
experiencia
y
compartiendo
con
nosotros
todo
su
conocimiento
para
que
también
nos
podamos
enriquecer.
Entonces
vamos
con
la
primera
Keynote
o
la
Elena
ahora
mismo
ya
te
puede
ver
todo
el
mundo.
Os
presento
a
Elena
aunque
bueno,
muchos
de
los
presentes
seguramente
ya
la
conozcáis.
Elena
González
Blanco
tiene
un
perfil
muy
interesante
porque
combina
academia
e
industria.
Actualmente
como
dije
antes
es
Head
of
the
I
for
M.
Digital
Natives
en
Microsoft
y
profesora
en
la
Universidad
de
Lien.
Esco
fundadora
de
Cleabrain
y
CleaDrive,
miembro
asesor
de
la
Junta
Directiva
de
varias
empresas
y
también
instituciones
e
instituciones
de
investigación
y
ha
sido
investigadora
en
diversas
universidades
como
la
UNED
donde
fundó
el
Laboratorio
de
Innovación
en
Humanidades
Digitales.
Entonces
bueno
bienvenida
de
nuevo
Elena,
muchísimas
gracias
por
estar
hoy
aquí.
Ahora
me
voy
pero
me
quedo
en
el
backstage
entonces
os
iré
leyendo
a
todas
las
personas
presentes,
podéis
compartir
vuestras
comentarios,
preguntas
y
yo
al
final
de
la
presentación
se
las
leo
a
Elena.
Muy
bien,
eso
es
todo,
muchísimas
gracias
y
allá
vamos,
puedes
compartir
tu
pantalla
cuando
quieras.
Pues
muchísimas
gracias
María,
la
verdad
es
que
es
un
honor
estar
aquí
esta
tarde
porque
creo
que
los
hackatones
son
muy
importantes
en
esta
industria
de
inteligencia
artificial
y
de
datos
que
nos
movemos
y
además
estoy
muy
orgullosa
de
ver
que
pues
este
es
un
hackatón
en
español
que
no
es
su
primera
edición
sino
que
cada
vez
va
cogiendo
mayor
fuerza
porque
como
dice
el
logo
pues
somos
600
millones
pero
a
pesar
de
la
cantidad
de
hispanohablantes
que
somos
en
el
mundo
todavía
tenemos
mucho
que
hacer
porque
en
tecnología
y
especialmente
en
inteligencia
artificial
aún
vamos
por
detrás
y
esto
no
es
una
cuestión
de
tecnología,
es
una
cuestión
de
usuarios
y
de
datos
y
por
eso
creo
que
eventos
como
este
tienen
muchísima
importancia
y
deberían
pues
depender
continuidad
y
ecos
para
poder
construir
entre
toda
lacomunidad
pues
la
tecnología
a
la
altura
del
lenguaje.
De
esto
precisamente
voy
a
hablar
hoy
y
voy
a
hablar
porque
como
bien
ha
dicho
María
pues
llevo
toda
mi
vida
trabajando
en
esto
aunque
antes
estaba
menos
de
moda
y
la
tecnología
funcionaba
peor
pero
precisamente
eso
es
lo
que
os
voy
a
contar
hoy.
Cómo
hemos
llegado
hasta
donde
estamos
con
los
modelos
del
lenguaje
que
cuáles
son
los
retos
a
los
que
nos
enfrentamos
ahora
mismo
y
por
qué
estamos
aquí
y
cuáles
son
estos
próximos
pasos
que
tenemos
que
dar.
Voy
a
compartir
mi
pantalla.
Genial
muchísimas
gracias
por
tus
palabras
también
la
verdad
que
sabemos
que
hay
mucha
gente
que
nos
apoya
pero
es
muy
importante
para
mí
y
para
toda
la
comunidad
creo
también
tener
apoyos
tan
importantes.
De
nuevo
gracias
comparto
tus
presentación
y
ahora
sí
que
sí
hasta
luego
muchas
gracias.
Perfecto
María
pues
vamos
a
ello
siempre
me
gusta
empezar
a
hablar
de
inteligencia
artificial
y
de
modelos
del
lenguaje
remontándome
hace
ya
bastante
tiempo.
El
año
1951
es
un
año
crucial
para
los
orígenes
de
la
inteligencia
artificial
porque
se
publica
un
artículo
cuya
autor
es
Alan
Turing
conocido
por
los
descubrimientos
de
criptografía,
los
avances
durante
la
guerra
mundial
pero
publica
un
artículo
que
se
llama
"Computing
Machinery
and
Intelligence"
donde
él
mismo
dice
que
si
ponemos
una
máquina
y
una
persona
en
una
habitación
y
ponemos
una
persona
fuera
de
esa
habitación
el
día
en
que
la
persona
que
está
fuera
de
la
habitación
sea
capaz
de
no
distinguir
si
está
hablando
con
la
persona
o
con
la
máquina
ese
es
el
momento
que
la
inteligencia
artificial
está
en
la
madura.
Esto
es
lo
que
se
ha
venido
llamando
el
juego
de
la
imitación
y
cuando
hoy
en
día
pregunto
y
además
me
gustaría
muchísimo
ver
todas
vuestras
caras
hemos
llegado
hasta
aquí
es
el
juego
de
la
imitación
una
realidad
hace
unos
meses
la
mayor
parte
de
la
gente
decía
que
no.
A
día
de
hoy
hay
muchos
que
ya
asienten
o
afirman
que
la
inteligencia
artificial
ha
llegado
a
su
madurez
y
que
ya
es
capaz
de
interactuar
como
si
fuera
una
persona
humana.
Hago
aquí
un
pequeño
inciso
dado
que
estamos
en
un
hackatón
de
español
pero
mi
reflexión
aquí
es
que
todavía
funciona
mucho
mejor
en
inglés
que
en
otras
lenguas
entre
las
que
se
incluye
la
nuestra.
Unos
años
después
o
casi
durante
la
misma
época
surge
la
figura
de
Márgio
Miskie
fundador
del
primer
laboratorio
de
inteligencia
artificial
del
MLT.
Se
le
considera
el
cerebro
de
la
inteligencia
artificial
el
que
da
por
inaugurada
esta
disciplina
en
una
conferencia
en
Darnoz
y
que
además
hace
una
investigación
muy
profunda
en
torno
a
las
redes
neuronales
desde
el
punto
de
vista
matemático
y
esto
es
muy
importante
tenedlo
presente
años
50
inicios
matemáticos
de
los
algoritmos
que
vamos
a
ver
en
la
base
de
los
transformers
o
los
gpt
que
estamos
viendo
a
día
de
hoy.
Sin
embargo
lo
que
observamos
es
que
los
miedos
que
teníamos
en
vamos
que
tenemos
ahora
mismo
también
estaban
ya
en
aquella
época.
[Música]
Podéis
ser
en
el
espacio
1968
el
miedo
a
que
la
inteligencia
artificial
destruyes
el
mundo
ya
estaba
en
boca
de
todos
y
ya
era
una
comidilla
cuando
empezaban
a
surgir
estos
avances
técnicos
que
sin
embargo
todavía
no
han
llegado
a
funcionar
a
la
altura
de
Jal
ni
siquiera
en
el
entorno
de
nuestras
mesillas
que
pronto
si
Dios
quiere
pues
esperemos
funcionando
con
la
inteligencia
artificial
generativa
pero
que
todavía
no
estamos
ahí
en
ese
Jal
que
va
a
destruir
el
mundo
y
que
se
va
a
hacer
con
la
famosa
AGI
que
es
la
inteligencia
artificial
general
de
la
que
tanto
se
habla
en
nuestros
periódicos
de
una
forma
tremendista.
Lo
que
estamos
viendo
y
a
mí
es
lo
que
me
parece
más
relevante
es
que
los
orígenes
de
la
inteligencia
artificial
se
encuentran
en
los
años
50
del
siglo
pasado.
Esta
época
es
crucial
porque
se
desarrollan
los
primeros
algoritmos
matemáticos
que
están
en
la
base
de
los
sistemas
de
vectores,
matrices
y
redes
neuronales
que
vamos
a
ver
después
constituyendo
los
transformers
de
los
que
tanto
estamos
hablando
últimamente.
En
la
parte
del
lenguaje
loque
vemos
es
que
se
crean
los
sistemas
de
reglas
para
hacer
una
frase
para
traducirla
decimos
que
hay
un
sujeto,
un
verbo
y
un
predicado
y
unos
diccionales
y
a
partir
de
ahí
empezamos
a
funcionar
con
la
llamada
lingüística
computacional.
Se
desarrollan
los
fundamentos
del
NLP
Natural
Language
Processing
y
los
inicios
del
Machine
Learning
de
una
forma
muy
matemática
y
muy
como
digo
basada
en
la
lógica
y
en
las
reglas.
En
los
años
80-90
después
de
un
invierno
de
la
inteligencia
artificial
se
combina
la
inteligencia
artificial
con
la
probabilidad
y
el
aumento
de
las
capacidades
de
computación
y
la
capacidad
de
entrenar
con
datos
hace
que
la
inlusión
de
gramáticas
complejas
pues
puedan
dar
lugar
a
ciertos
sistemas
de
generación
del
lenguaje.
En
esta
época
vemos
como
por
ejemplo
en
el
año
1997
el
primer
jugador
de
fede
del
mundo
es
derrotado,
Kasparov
es
derrotado
por
un
sistema
entrenado
con
inteligencia
artificial
entre
comidas.
¿Por
qué?
Porque
la
fede
es
un
juego
de
reglas
y
las
reglas
combinadas
con
la
probabilidad
y
una
capacidad
de
computación
adecuadas
son
predecibles
a
partir
de
un
sistema
de
lógica
y
de
estadística.
Sin
embargo
hemos
tenido
que
esperar
hasta
el
tercer
periodo
hasta
el
año
2016
para
que
el
mejor
jugador
del
mundo
de
Go
haya
sido
derrotado
por
un
sistema
de
inteligencia
artificial,
DeepMind.
Esto
sucedió
como
os
digo
hace
apenas
seis
años
en
un
momento
en
el
que
se
aplican
las
redes
neuronales
para
utilizar
aprendizaje
no
supervisado,
es
decir
un
sistema
que
no
está
basado
en
reglas
porque
se
trata
de
un
poco
de
estrategia
parecido
a
las
damas
en
el
que
se
combina
este
procesamiento
de
los
datos
con
un
sistema
de
redes
neuronales
que
es
capaz
de
aprender
a
partir
de
esa
información.
Esto
sucede
como
os
digo
hace
bastante
poco
tiempo
y
a
partir
de
entonces
pues
Google
compra
DeepMind
y
empiezan
a
surgir
muchas
mejoras
en
la
traducción
que
empieza
a
basarse
en
redes
neuronales.
Si
tenéis
curiosidad
sobre
esta
historia
os
recomiendo
que
veáis
un
documental
que
se
llama
AlphaGo
en
Netflix
que
explica
un
poco
cómo
sucedió
todo
esto
y
es
bastante
divertido.
Pero
para
mí
lo
más
importante
es
entender
desde
dónde
hemos
arrancado
y
cómo
hemos
llegado
hasta
aquí.
La
inteligencia
artificial
per
se
en
el
sentido
más
amplio
de
la
palabra
comienza
a
desarrollarse
en
los
años
50
del
siglo
pasado.
El
machine
learning
comienza
a
finales
de
los
90
desde
el
punto
de
vista
matemático
y
de
aplicación
de
las
redes
neuronales.
A
partir
del
año
2012
y
como
os
decía
en
producción
más
bien
a
partir
del
2015
empiezan
estos
algoritmos
de
aprendizaje
automático
no
supervisado
a
tener
resultados
reales
y
a
ser
posibles
en
ámbitos
como
por
ejemplo
la
generación
bueno
la
generación
no
en
en
ámbitos
como
el
análisis
de
imagen
o
todo
lo
que
son
por
ejemplo
detección
de
caras
o
temas
de
seguridad.
Pero
hemos
tenido
que
esperar
hasta
el
año
2021
para
la
eclosión
de
la
inteligencia
artificial
generativa
de
la
cual
hablaremos
un
poquito
más
adelante.
La
pregunta
de
todo
esto
es
¿por
qué
ha
pasado
todo
esto
y
por
qué?
Pero
hay
que
tener
mucho
en
perspectiva
el
cómo
y
qué
tipo
de
cosas
han
ido
pasando.
Los
últimos
años
como
os
decía
el
año
2016
ha
sido
ese
inicio
de
toda
esta
vorágine
que
parece
que
ha
explotado
el
año
pasado
pero
que
ya
lleva
unos
cuantos
años
explotando
esa
capacidad
de
reconocer
objetos
que
surgen
el
año
2016
y
como
os
decía
empieza
con
imágenes.
En
el
2017
se
hacen
avances
importantes
en
el
reconocimiento
del
habla.
2018
toda
la
parte
de
comprensión
de
reading
de
lectura.
2018
también
la
traducción.
Todos
los
sistemas
de
asistentes
conversacionales
mejorar
notablemente
y
toda
la
parte
de
capturas
de
imágenes
también.
Hasta
que
llegamos
al
famoso
chat
GPT
en
el
año
2022
y
en
GPT4
en
el
2023.
Esto
ha
suscitado
pues
una
serie
de
revolución
casi
en
la
industria
pero
no
solamente
en
la
industria
sino
en
todas
las
áreas
de
la
sociedad
y
por
eso
se
habla
tanto
de
inteligencia
artificial
generativa.
La
pregunta
es
¿por
quési
esto
empezó
hace
tanto
tiempo
se
ha
puesto
de
moda
ahora
y
por
qué
y
si
va
a
venir
para
quedarse?
Bueno
pues
la
respuesta
es
esto
se
ha
dado
gracias
a
tres
razones.
En
primer
lugar
los
datos.
Cada
día
tenemos
más
datos
en
el
último
año
se
han
producido
más
datos
que
en
todos
los
años
anteriores
juntos
y
esta
tendencia
va
en
aumento
exponencial.
Estos
datos
se
almacenan
en
la
lube
y
son
baratos
son
rápidos
de
almacenar
y
cada
vez
se
almacenan
con
mayor
agilidad.
En
segundo
lugar
la
capacidad
de
procesamiento.
Se
oye
mucho
hablar
de
envidia
últimamente.
En
envidia
que
viene
también
pues
de
esta
origen
en
todo
lo
que
son
las
GPUs
y
todo
los
sistemas
de
hardware
asociados
por
una
parte
a
la
industria
del
videojuego
y
por
otra
parte
a
esta
necesidad
de
capacidad
de
computación
y
velocidad
ha
sido
crucial
para
el
desarrollo
de
la
inteligencia
artificial
porque
como
decíamos
tenemos
que
procesar
millones
de
datos
a
una
velocidad
enorme
y
cada
vez
mayor
para
entrenar
y
para
poder
poner
en
inferencia
en
producción
estos
modelos
de
redes
neuronales
y
para
ello
también
es
necesario
que
el
software
acompañe
movimientos
como
el
software
libre
que
también
se
han
aplicado
a
los
modelos
de
lenguaje
han
hecho
que
cada
vez
sea
más
fácil
para
cualquier
persona
poder
tener
acceso
al
desarrollo
de
estos
sistemas
incluso
a
través
de
su
propio
ordenador
gracias
a
la
computación
en
la
lube.
Sin
embargo,
cuando
hablamos
de
inteligencia
artificial
tocamos
varios
campos.
En
la
base
siempre
está
el
sistema
de
aprendizaje
automático
de
machine
learning
desde
el
grado
menos
supervisado
hasta
el
deep
learning
y
ahora
mismo
pues
toda
la
parte
de
transformes
pero
dentro
de
lo
que
son
los
datos
que
hay
detrás
de
cada
uno
de
los
modelos
es
importante
diferenciar
que
hay
distintos
tipos
de
datos
y
por
tanto
distintos
tipos
de
algoritmos
y
por
ende
de
modelos
no
solamente
de
imagen
sino
de
texto
y
también
de
sonido
o
de
voz.
Esto
quiere
decir
que
cuando
hablamos
de
procesamiento
del
lenguaje
natural
o
de
texto
nos
referimos
al
texto
escrito
y
esto
es
fundamental
caracteres
alfanuméricos
que
son
procesables
por
un
ordenador.
Cuando
hablamos
de
visión
o
de
imagen
nos
referimos
a
píxeles
y
estas
pequeñas
unidades
en
estos
cuadraditos
son
los
que
van
a
constituir
estos
modelos
de
imagen
como
tenemos
Dali
o
como
tenemos
los
modelos
que
están
surgiendo
ahora
mismo
y
que
están
dando
lugar
a
todos
estos
fenómenos
de
los
que
tanto
se
habla
como
los
deep
face.
Cuando
hablamos
de
sonido
estamos
hablando
de
procesamiento
de
ondas
sonoras
el
speech
analytics
es
complejo
porque
combina
tanto
la
parte
de
sonido
como
la
parte
de
texto
y
la
música
y
el
vídeo
pues
tienen
también
esta
complejidad
que
combinan
distintos
tipos
de
sistemas
de
datos.
Si
vemos
de
a
centraros
en
el
lenguaje
porque
como
decíamos
en
esta
en
esta
charla
vamos
a
hablar
de
modelos
del
lenguaje
vamos
a
ver
un
poquito
cómo
hemos
llegado
hasta
todo
lo
que
son
los
LLM
o
large
language
modes.
Cuando
empezamos
a
analizar
cómo
funciona
una
máquina
y
cómo
aprende
un
ordenador
a
detectar
cualquier
tipo
de
frase
lo
primero
que
tenemos
que
ver
es
que
cuando
hablamos
nosotros
no
hacemos
paradas
entre
las
palabras.
Esto
quiere
decir
que
si
yo
digo
Juan
comió
una
manzana
lo
que
el
ordenador
transcribiría
sistemáticamente
es
este
chorro
de
palabras
que
yo
tendría
que
separar
pero
esto
es
una
convención
desde
el
punto
de
vista
escritura.
Esto
quiere
decir
que
lo
primero
que
tengo
que
hacer
cada
vez
que
voy
a
utilizar
un
sistema
de
procesamiento
del
lenguaje
es
dividir
las
frases
en
tokens
ni
por
qué
toquen
sino
palabras
y
por
qué
tanto
se
habla
de
tokens
y
ahora
mismo
bueno
parece
que
es
un
concepto
que
vamos
ha
surgido
de
la
nada
de
lo
que
todo
el
mundo
está
hablando
y
por
lo
que
nos
cobra
la
GPT.
Bien
pues
porque
realmente
cada
sistema
lingüístico
tiene
una
forma
distinta
de
tener
su
flexión,
su
morfología,
su
forma
de
derivar
las
palabras.
Por
cierto
no
lo
he
dicho
soy
lingüista
así
que
este
tipo
de
cuestiones
puesme
toca
un
poco
la
fibra
pero
es
importante
saber
que
por
ejemplo
entre
un
idioma
como
el
español
y
que
es
flexivo
y
un
idioma
como
el
turco
que
es
aglutinante
el
turco
va
pegando
las
palabras
una
detrás
de
otra
como
nosotros
hacemos
con
los
pronombres
cuando
yo
digo
dáselo
ahí
tenemos
tres
palabras
o
tres
tokens.
Esto
quiere
decir
que
dependiendo
de
cómo
sea
el
lenguaje
el
concepto
de
token
va
a
variar
y
va
a
ser
procesado
de
distinta
forma
lo
que
aumenta
por
supuesto
la
complejidad
a
la
hora
de
frenar
estos
modelos
del
lenguaje.
Pero
además
de
la
morfología
está
la
sintaxis
esto
quiere
decir
que
el
orden
en
el
que
aparecen
las
palabras
en
la
frase
es
importante
y
esto
es
muy
relevante
porque
los
transformers
y
los
GPT
es
todo
lo
que
vemos
detrás
de
chat
GPT
y
de
los
sistemas
los
modelos
del
lenguaje
que
estamos
analizando
actualmente
lo
que
tienen
es
un
sistema
probabilístico
detrás
que
predice
cuál
es
la
siguiente
palabra
más
probable
dentro
de
una
estructura
por
lo
tanto
el
cambio
de
orden
de
una
palabra
afectaría
completamente
a
lo
que
es
por
ejemplo
un
prompt
o
una
instrucción
porque
el
sistema
está
muy
muy
relacionado
con
la
forma
y
toda
la
el
espacio
que
ocupan
las
palabras
dentro
de
la
frase
incluso
nuestra
propia
lengua
cuando
convíamos
una
palabra
de
orden
puede
significar
exactamente
lo
contrario
y
nos
puedes
imaginar
en
congresos
como
la
sociedad
de
procesamiento
del
lenguaje
natural
la
cantidad
de
papers
que
hay
sobre
la
negación
en
español
y
sobre
fenómenos
de
este
tipo
que
lo
que
hacen
es
que
sea
altamente
complejo
detectar
ciertos
fenómenos
lingüísticos
como
puede
ser
la
ironía
o
las
metáforas
que
también
dependen
un
poco
de
cómo
estén
las
palabras
dentro
de
la
frase.
La
cuestión
aquí
es
cómo
enseñamos
todo
esto
a
un
ordenador
porque
a
la
hora
por
ejemplo
de
entrenar
un
chatbot
vemos
que
ha
sido
bastante
difícil
el
conseguir
pues
hace
ya
muchos
años
que
un
sistema
de
asistente
virtual
pidiera
una
pizza.
Nos
podéis
imaginar
la
cantidad
de
horas
de
energía
y
de
investigación
que
se
han
utilizado
para
combinar
estos
modelos
del
lenguaje
y
estos
fenómenos
lingüísticos
que
van
desde
la
fonética
hasta
la
pragmática.
¿Por
qué?
Pues
precisamente
porque
en
un
idioma
como
el
nuestro
del
español
tenemos
fenómenos
que
afectan
a
todas
las
capas.
Cuando
estamos
hablando
de
fonética
es
decir
de
cómo
se
pronuncian
las
palabras
o
de
cómo
suenan
vemos
que
hay
fenómenos
como
el
CSEO
o
el
CSEO
en
distintas
regiones
de
España
como
Canaria,
Santa
Lucía
o
Latinoamérica
pues
se
pronuncian
con
un
solo
fonema.
Esto
a
la
hora
de
entrenar
modelos
y
a
la
hora
de
diferenciar
variantes
lingüísticas
es
un
matiz
bastante
importante
para
hacer
por
ejemplo
sistemas
de
speech-to-text
y
hasta
hace
poco
tiempo
era
uno
de
los
obstáculos
para
conseguir
que
unas
transcripciones
funcionase
de
forma
adecuada.
La
morpología
es
decir
esta
forma
que
tienen
las
palabras
afecta
por
ejemplo
a
fenómenos
como
el
CSEO
o
el
de
tú
o
el
usted.
Las
formas
de
tratamiento
en
Latinoamérica
y
sus
usos
son
muy
diferentes
y
también
las
implicaciones
que
tiene
el
usar
una
forma
u
otra
en
un
contexto
más
de
respeto
o
más
coloquia
y
por
lo
tanto
también
debemos
de
entrenar
a
los
modelos
con
este
tipo
de
variantes
en
función
de
esas
necesidades
y
esas
situaciones
geográficas
y
de
contexto.
Y
la
pragmática
y
la
semántica
más
aún
es
decir
lo
más
difícil
del
lenguaje
es
ver
qué
significa
una
palabra
o
cuál
es
esa
variedad
de
palabra
que
se
utiliza
en
un
determinado
contexto
y
especialmente
hablando
de
un
idioma
como
el
español
donde
podemos
tener
situaciones
divertidas
incluso
palabras
como
ahora
o
ahorita
que
significan
implicaciones
muy
distintas
en
España
o
en
México
y
la
pragmática
cuando
hablamos
ya
con
sistemas
de
contexto
cultural.
Esto
es
aún
más
complejo
todavía
sobre
todo
en
registros
orales.
Una
persona
de
Puerto
Rico,
un
gran
amigo
me
decía
no
sé
cómo
van
a
enseñar
ustedes
a
hablar
de
esas
máquinas
porque
en
mi
país
cada
vez
quehablamos
dos
frases
decimos
un
refrán.
Pues
bien,
la
inteligencia
artificial
si
bien
está
entrenada
aún
le
queda
por
aprender
bastante
de
refranes.
Y
cuando
intentamos
trasladar
todo
esto
a
un
sistema
de
asistente
virtual
o
un
sistema
de
voz
como
decía
todavía
son
bastante
tontos
porque
porque
necesitamos
que
ese
speech
analytics,
esa
conversación
que
yo
tengo
cada
vez
que
habló
con
un
asistente
que
pueda
tener
el
nimensita
de
noche,
se
transcribe
de
voz
a
texto.
Después
ese
texto
se
analice,
se
extraigan
esos
insights,
se
extraigan
esos
mensajes
y
después
se
pasen
a
otra
vez
a
un
sistema
conversacional
donde
tengamos
una
frase
que
se
genere
y
a
partir
de
ahí
pues
un
sistema
de
voz
que
lo
pronuncie.
Esto
quiere
decir
que
en
cada
uno
de
estos
pasos
se
puede
perder
información
si
hay
errores
que
inducen
pues
a
una
perdida
de
contexto
o
a
un
significado
que
no
fuera
del
esperado.
Por
ello,
pues
aún
no
hemos
visto
esa
realidad
de
asistentes
virtuales
a
tiempo
real
más
allá
de
que
hay
procesos
que
son
computacionalmente
complejos
y
que
requieren
una
latencia,
una
velocidad
de
explosión
que
hace
que
no
sea
inmediata
esta
transcripción
o
este
fenómeno
de
traer
a
texto
o
a
voz
lo
que
se
trasfera
a
partir
de
un
canal
o
de
otro.
Pero
aquí
lo
importante
es
saber
cómo
han
evolucionado
estas
tecnologías.
Como
os
decía
antes,
cuando
empezaron
los
sistemas
de
inteligencia
artificial
hablábamos
de
reglas
y
si
trasladamos
esto
al
lenguaje
vemos
que,
por
ejemplo,
para
hacer
un
clasificador
una
clasificación
de
un
correo
electrónico
en
un
buzón
o
en
una
serie
de
documentos
para
saber
si
una
palabra
como
banco
significa
objeto
para
sentarse
o
significa
entidad
bancaria
y
lo
que
quiero
es
analizar
el
contexto
de
esa
conversación.
Lo
que
hacíamos
en
estos
orígenes
del
procesamiento
del
lenguaje
era
utilizar
una
técnica
que
medía
las
frecuencias
de
palabras.
Si
yo
situaba
banco
en
un
contexto
rural
pues
por
las
palabras
que
la
rodeaban
y
todo
ese
contexto
era
capaz
de
predecir
que
se
refiere
a
ese
objeto
de
sentarse.
Si
lo
situaba
en
un
contexto
de
entidad
bancaria
por
los
pesos
de
las
palabras
relacionadas
con
el
mundo
de
las
finanzas
era
capaz
de
hacer
esa
clasificación.
El
problema
era
cuando
el
contexto
no
era
lo
suficientemente
abundante.
De
ahí
se
pasó
a
lo
que
se
llaman
los
sistemas
de
vectores
y
aquí
entramos
en
una
parte
que
es
matemáticamente
más
compleja
pero
como
comentaba
ya
estaba
inventada
hace
mucho
tiempo.
En
este
momento
dejamos
de
tener
esa
conciencia
de
esta
palabra
significa
una
cosa.
La
convertimos
en
un
vector
en
el
que
cada
elemento
del
vector
es
un
campo
numérico
que
tiene
una
longitud
determinada
y
que
se
representa
en
un
espacio
tridimensional
como
se
puede
ver
aquí
abajo
a
la
derecha.
Estos
vectores
se
representan
en
ese
espacio
y
en
función
de
las
distancias
que
separan
los
ángulos
de
coseno
entre
los
ejes
podemos
ver
cuál
es
el
vector
más
próximo
un
ángulo
u
a
otro
y
cómo
las
palabras
o
las
frases
o
los
sistemas
que
analicemos
transformados
en
estos
vectores
se
parecen
o
se
asimilan
unos
a
otros.
¿Qué
quiere
decir
esto?
Bueno
pues
esto
es
importantísimo
porque
aunque
parezca
un
poco
abstracto
esto
está
en
la
base
de
todos
los
sistemas
de
la
inteligencia
artificial
generativa
porque
las
bases
de
datos
que
se
utilizan
para
gustar
el
lenguaje
son
vasos
de
datos
vectoriales,
es
decir
los
datos
de
todo
tipo
se
transforman
en
vectores
y
a
partir
de
esos
vectores
somos
capaces
de
realizar
lo
que
llamamos
búsqueda
semántica
para
poder
localizar
cuáles
son
esas
similitudes
entre
unas
palabras
y
otras
y
construir
las
bases
de
lo
que
tenemos
en
los
transformers
o
en
los
GPT.
Esto
como
decía
es
matemáticamente
muy
complejo
la
estructura
de
una
red
neuronal
es
una
combinación
de
capas
de
distintos
vectores
que
se
llaman
neuronal
no
porque
se
parezca
el
cerebro
ni
porque
tenga
ningún
tipo
de
actividad
de
pensamiento
sino
porque
se
asimila
en
cierta
manera
por
los
impulsos
que
se
producen
de
transmisión
de
datos
entre
unos
núcleosentre
unas
nodos
de
la
red
y
otros.
Esto
lo
que
conlleva
es
una
serie
de
procesos
complejos
matemáticamente
en
que
los
datos
se
van
moviendo
de
capa
a
capa
y
por
eso
se
necesita
mucha
capacidad
computacional
y
mucha
velocidad
para
conseguir
que
haya
una
serie
de
datos
de
entrada
y
una
serie
de
capas
de
salida.
Esto
ha
dado
lugar
a
lo
que
es
la
arquitectura
de
transformers.
La
arquitectura
de
transformers
está
en
la
base
de
lo
que
es
la
célula
de
la
inteligente
artificial
generativa
y
es
un
sistema
en
el
que
tenemos
una
serie
de
input-entrada
y
output
de
salida
y
están
combinados
en
función
de
sistemas
de
razonamiento
que
parten
de
un
paper
que
se
llama
o
la
"Tension
is
what
you
need"
y
que
a
partir
de
esta
combinación
de
redes
neuronales
van
combinándose
entre
sistemas
de
lo
que
se
llama
encoder
y
decoder
para
codificar
y
descodificar.
No
voy
a
entrar
en
la
parte
de
matemática
de
todo
lo
que
hay
detrás
porque
es
altamente
complejo
y
lleva
muchísimos
años
de
investigación
y
como
decía
muchos
años
de
investigación
que
solo
se
han
podido
implementar
gracias
a
esta
capacidad
de
computación
de
la
que
contamos
muy
recientemente
pero
que
llevan
ya
mucho
tiempo
de
aprendizaje
desde
el
punto
de
vista
matemático.
Lo
importante
aquí
es
saber
que
estos
transformers
han
constituido
lo
que
son
los
GPTS
Generative
Procedure
and
Transformers,
un
sistema
en
el
que
se
construyen
los
modelos
de
lenguaje
mediante
la
combinación
de
estos
transformers
y
lo
que
hacen
es
entrenarse
con
una
serie
de
datos
que
van
generando
estos
sistemas
de
entrada
y
de
salida
para
después
poder
ponerse
en
producción
y
subirse
a
una
nube
donde
se
pueden
utilizar
para
hacer
consultados.
¿Qué
hemos
visto
aquí?
Bueno
pues
a
partir
del
año
2012
empiezan
a
hacerse
experimentos
bastante
interesantes.
En
el
año
2015
se
empieza
a
hacer
un
experimento
con
todas
las
imágenes
de
gatos
que
se
encuentran
en
el
internet.
Sin
decirle
nada
a
este
sistema
de
redes
neuronales
pues
se
entren
a
un
sistema
de
transformers,
empiezan
a
salir
gatos
sin
haber
dado
ningún
tipo
de
instrucción
más
ni
de
regla
a
todo
este
sistema.
Entonces
en
el
año
2015
se
publica
un
"Pay
for
Pay"
pero
en
la
revista
Wildt
que
dice
"alimenta
tu
render
onal
con
una
gato
y
saldrán
gatos"
"alimenta
tu
render
onal
con
nubes
y
saldrán
nubes"
la
inteligencia
artificial
por
fin
funciona.
Este
es
el
primer
experimento
masivo
que
se
lanza
sobre
la
mayor
cantidad
de
imágenes
que
había
en
internet
que
son
las
de
gatos
y
gracias
a
esto
pues
podemos
ver
que
por
fin
tenemos
casos
de
uso
de
éxito
en
los
que
la
inteligencia
artificial
empiezan
a
apuntar
a
lo
que
hemos
ido
viendo
en
estos
últimos
años
de
revolución.
Sin
embargo
como
os
decía
hemos
tenido
que
esperar
hasta
el
año
2018
para
poder
ver
esa
primera
versión
de
GPT
que
todavía
pues
será
una
especie
de
embrión
y
no
razonaba
demasiado
bien
pero
tenemos
modelos
como
los
modelos
BERT
sobre
los
cuales
los
investigadores
hemos
estado
trabajando
bastante
en
los
últimos
años
con
resultados
que
no
dejaban
de
ser
bastante
interesantes.
A
partir
del
año
2020
empieza
a
acelerarse
todo
la
aparición
de
GPT-3
es
ya
un
buen
cambio
en
el
sistema
y
la
aparición
de
Dali
en
2021
empieza
a
cambiar
las
reglas
de
juego
del
mundo
de
la
imagen.
Sin
embargo
la
eclosión
de
modelos
surge
a
final
de
2021
por
incipios
de
2022.
La
llegada
de
GPT-4
y
la
eclosión
de
modelos
tanto
de
código
abierto
como
de
código
cerrado
hacen
que
el
panorama
cambie
notablemente
y
además
este
gráfico
se
queda
en
2023
pero
lo
que
ha
pasado
en
2024
pues
es
todavía
mayor.
¿Qué
es
lo
que
estamos
viendo?
Pues
lo
que
estamos
viendo
es
casi
una
guerra
entre
los
distintos
modelos
en
los
que
cada
vez
surgen
nuevos
benchmarks
o
sistemas
de
comparación
de
resultados
donde
lo
que
vemos
es
que
hay
modelos
de
distinto
tipo.
Tenemos
por
una
parte
los
modelos
basados
como
decía
al
comienzo
en
distintos
tipos
de
datos
de
voz,
de
sonido,
vamos
de
texto,
de
imagen
y
el
concepto
de
multimodalidad
es
decirlos
modelos
que
de
pronto
empiezan
a
mezclarlo
todo.
Los
modelos
de
GPT
al
principio
salieron
como
modelos
de
lenguaje
ahora
ya
pues
empiezan
a
combinar
en
las
herramientas
los
distintos
tipos
de
modelos
para
poder
facilitar
al
usuario
que
de
pronto
meta
un
documento
o
una
imagen
y
pueda
ser
capaz
de
extraer
datos.
Sin
embargo
todavía
vemos
que
hay
que
realizar
pequeños
ajustes
porque
pues
ha
habido
problemas
como
diferenciar
o
reconocer
a
veces
las
letras
de
una
imagen
cuando
se
mezclan
distintos
tipos
de
tecnología
porque
como
decía
esto
no
es
tan
sencillo
desde
el
punto
de
vista
del
procesamiento
de
datos.
¿Qué
es
lo
que
hemos
visto
recientemente
más
llamativo?
Bueno
pues
el
lanzamiento
hace
un
par
de
semanas
de
los
modelos
de
SOTA
de
OpenEye
que
son
los
modelos
de
generación
de
vídeo
que
es
una
de
las
cosas
más
difíciles
que
tenemos
dentro
de
toda
esta
tecnología.
¿Por
qué?
Porque
el
vídeo
necesita
imagen,
sonido
y
texto
a
tiempo
casi
real
entonces
combinar
todo
esto
requiere
una
cantidad
enorme
de
datos,
una
capacidad
de
computación
muy
grande
y
verificar
que
todas
estas
tres
líneas
se
orquestan
de
la
forma
que
resulta
adecuada
para
obtener
buenos
resultados.
También
lo
que
vemos
aquí
es
que
hay
una
especie
de
postura
bastante
diferenciada
entre
lo
que
son
los
modelos
de
código
cerrado
como
pueden
ser
los
modelos
de
OpenEye
y
todos
los
GPT
es
Dal
y
los
modelos
de
código
abierto
como
Unijune
o
como
todo
lo
que
son
los
modelos
de
llama
que
es
la
puesta
de
meta
por
toda
la
parte
de
software
libre
o
de
otras
empresas
como
Mistral
que
es
un
unicornio
que
nació
en
Francia
el
año
pasado
y
que
ya
ha
producido
pues
uno
de
los
mejores
modelos
de
lenguaje
que
se
puede
utilizar
y
que
bueno
pues
nosotros
mismos
hemos
puesto
en
la
propia
plataforma
Azure
la
semana
pasada.
Es
decir,
están
pasando
las
cosas
en
tal
velocidad
que
casi
estar
una
semana
sin
leer
todo
lo
que
circula
por
redes,
por
publicaciones
o
por
foros
pues
nos
deja
atrás
en
todo
lo
que
es
el
desarrollo
de
esta
tecnología
que
si
bien
pues
no
deja
de
ser
una
disrupción
como
tantas
otras
la
velocidad
que
está
cogiendo
es
absolutamente
increíble.
A
mí
lo
que
estamos
viendo
es
que
hay
otras
tendencias
como
a
la
creación
de
modelos
más
pequeños
más
especializados
en
determinados
ámbitos
o
en
resolver
determinadas
tareas
porque
los
modelos
muy
grandes
son
muy
caros
de
entrenar
y
muchas
veces
subó
óptimos
a
la
hora
por
ejemplo
de
poder
correglos
en
un
dispositivo
como
un
teléfono
móvil
cuando
no
hay
una
conectividad
muy
grande
o
cuando
no
hay
una
capacidad
de
computación
potente
a
la
hora
de
ponerlo
en
inferencia,
es
decir
ponerlo
en
producción
para
su
uso.
Pero
lo
que
hemos
visto
también
es
una
evolución
pues
bastante
interesante
entre
estos
modelos
como
imágenes
generadas
por
Dalí
y
también
su
propio
uso
que
lo
que
ha
generado
en
nuestra
sociedad
es
bastante
revuelo
con
un
fenómeno
como
los
deepfakes
que
preocupa
y
mucho
a
la
hora
de
ver
pues
hacia
dónde
pueden
evolucionar
los
malos
usos
de
la
inteligencia
artificial.
También
vemos
que
hay
grandes
esfuerzos
por
incorporar
todas
estas
tecnologías
en
plataformas
ya
que
al
final
no
solamente
se
necesitan
modelos
para
poder
poner
sistemas
en
producción
sino
que
también
se
necesita
infraestructura,
se
necesita
seguridad,
se
necesita
poder
utilizar
tus
propios
datos
para
trabajar
con
los
modelos,
es
decir
trabajar
en
lo
que
se
llama
una
arquitectura
RAC
para
poder
de
verdad
consultar
tu
propia
información
a
la
hora
de
hablar
con
un
modelo
y
conectarlo
al
mundo
real
sobre
el
que
se
quiere
construir
un
caso
de
uso.
Así
pues
vamos
en
Microsoft
por
ejemplo
tenemos
una
arquitectura
montada
que
cubre
todo
este
tipo
de
cosas
desde
toda
la
parte
de
nube
hasta
todas
las
capacidades
en
función
de
los
datos
y
luego
herramientas
que
se
van
construyendo
para
montar
lo
que
se
dice
soluciones
sobre
este
tipo
de
productos.
Pero
volvamos
un
poco
a
lo
que
son
los
modelos,
a
lo
que
es
la
base
de
estos
sistemas
lingüísticosde
lo
que
tanto
se
va
a
hablar
aquí
estos
días
y
en
lo
que
también
todavía
tenemos
mucho
que
trabajar.
¿Qué
son
los
modelos?
Los
modelos
como
decía
son
sistemas
que
están
basados
computacionalmente
en
transformes
en
elementos
que
predicen
la
probabilidad
de
que
llegue
la
próxima
palabra
pero
para
qué
sirven,
o
sea
que
es
lo
que
ha
hecho
la
inteligencia
artificial
generativa
sobre
todos
estos
sistemas.
Bueno
pues
por
una
parte
clasificar
o
analizar
los
datos,
es
decir
nos
sirven
para
mejorar
todas
estas
capacidades
analíticas
que
por
otro
lado
muchas
veces
ya
hacía
el
machine
learning
tradicional.
Una
de
las
cosas
que
hay
que
tener
en
cuenta
es
que
esta
inteligencia
artificial
no
surge
de
la
nada
y
que
en
varios
casos
de
uso
pues
el
machine
learning
tradicional
ya
lo
resuelve
sin
tener
que
irnos
a
la
idea
generativa.
Sin
embargo
la
idea
generativa
nos
da
una
ventaja
competitiva
a
la
hora
de
generar
ese
contenido
y
de
mejorar
por
ejemplo
la
búsqueda
que
quedamos
en
los
textos.
¿Qué
podemos
hacer
con
los
modelos
del
lenguaje?
Con
estos
grandes
modelos.
Bueno
pues
podemos
mejorar
mucho
las
tareas
de
resumen
porque
esa
generación
de
resumen
era
algo
que
todavía
no
estaba
bien
resuelto
con
el
procesamiento
del
lenguaje
tradicional.
Podemos
mejorar
mucho
la
extracción
de
datos
estructurados
y
no
estructurados.
Todo
lo
que
era
el
name
entity
recognition
con
toda
la
parte
de
búsqueda
semántica
mejora
exponencialmente.
Antes
buscábamos
una
base
de
datos
blockchain
y
no
aparecía
cripto.
Ahora
podemos
establecer
una
relación
y
yo
puedo
ir
a
buscar
en
un
concesionario.
Quiero
un
coche
azul
o
puedo
decir
tengo
una
familia
grande
y
dos
perros
y
me
gustaría
al
campo
el
fin
de
semana
y
hacer
que
me
recomienden
un
todoterreno
y
esto
se
hace
por
búsqueda
semántica.
Puedo
también
establecer
comparaciones
a
mayor
grado
con
grandes
cantidades
de
documentación.
Puedo
mejorar
los
sistemas
de
traducción
y
puedo
también
mejorar
muchos
sistemas
de
recomendación.
Los
casos
de
uso
son
casi
infinitos
pero
la
realidad
es
que
si
se
entiende
bien
esta
tecnología
se
puede
aplicar
a
casi
cualquier
cosa
y
también
hay
que
os
animo
a
que
desarrolles
vuestra
imaginación
en
el
jacatón
porque
muchas
veces
no
se
trata
de
buscar
la
tecnología
más
compleja.
Muchas
veces
es
buscar
el
caso
de
uso
más
apropiado
para
resolver
un
problema
que
se
tiene
con
una
tecnología
que
sea
simple
de
implementar
y
al
final
cuando
estamos
trabajando
en
empresas
y
vemos
cuáles
son
los
problemas
que
tiene
el
cliente
lo
que
vemos
es
que
quizás
ese
camino
más
corto
es
el
que
sea
el
más
difícil
de
encontrar
porque
las
posibilidades
son
muchas.
La
parte
de
clasificación
es
una
parte
muy
importante
sobre
todo
cuando
se
tienen
grandes
cantidades
de
documentación
en
la
que
se
quiere
buscar
esta
información.
Toda
la
parte
de
análisis
de
sentimiento
que
tradicionalmente
funcionaba
regular
ahora
abre
una
gran
puerta
pues
con
todo
lo
que
es
el
análisis
de
ese
contenido
que
está
detrás
de
sentimiento.
Ahora
ya
no
es
bueno
o
malo
es
de
que
se
queja
mi
cliente
porque
se
está
quejando
o
que
se
está
diciendo
en
la
redes
sociales
sobre
este
tema
cuando
queremos
analizar
miles
y
miles
de
opiniones
de
forma
simultánea
gracias
a
la
inteligencia
artificial.
La
extracción
de
información
documental
es
otro
de
los
casos
de
uso
que
es
bastante
importante
a
la
hora
de
ver
las
posibilidades
que
se
abren.
Aquí
por
ejemplo,
vamos
esto
es
un
ejemplo
de
un
pliego
de
una
convocatoria
de
obra
pública
en
un
documento
de
200
páginas
donde
tenemos
una
constructora
buscando
información
sobre
el
tipo
de
materiales
que
necesitan
y
sobre
los
seguros
que
tienen
que
contratar
para
hacerla
ahora.
En
circunstancias
tradicionales
sería
una
persona
física
la
que
emplearía
muchas
horas
varios
días
en
estudiar
este
documento
y
en
extraer
esa
información
casi
de
forma
manual
y
ahora
podemos
tener
un
copiloto,
un
asistente
virtual
que
nos
ayude
a
extraer
esta
información
y
que
la
persona
sólo
tenga
que
revisarahorrando
muchísimo
tiempo
del
día
a
día
de
esta
persona
y
que
además
bueno
podamos
entrenar
ese
modelo
con
los
datos
de
documentos
similares
para
mejorar
ese
resultado
de
una
forma
que
casi
la
intervención
de
su
mano
sea
pues
prácticamente
de
control
de
calidad
y
como
decía
esta
aplicación
a
la
búsqueda
en
grandes
cantidades
de
información
es
fácil
gracias
a
la
vectorización
de
los
datos.
La
transformación
de
esas
bases
de
datos
tradicionales
en
bases
de
datos
vectoriales
permite
que
la
búsqueda
sea
muchísimo
más
exacta
y
sea
contextual.
Al
procesar
este
significado
no
solamente
encontramos
respuestas
sino
también
buscamos
por
contexto
sin
tener
que
irnos
a
búsquedas
textuales
exactas
entonces
esto
nos
habla
una
cantidad
de
posibilidades
enormes
en
cualquiera
de
los
ámbitos
que
nos
planteemos
es
decir
estoy
pensando
en
empresas
con
históricos
documentales
en
distintos
formatos
de
muchos
años
y
de
muy
distintos
contenidos
como
pueden
ser
despachos
de
abogados
o
cualquier
tipo
de
empresa
grande
que
al
final
pues
tiene
un
archivo
de
data
bastante
bastante
numeroso
pero
con
todas
estas
maravillas
tenemos
una
gran
oportunidad
y
un
gran
retor
a
mí
mismo
tenemos
un
mercado
como
decía
el
título
del
jacatón
de
más
de
600
millones
de
personas
en
los
que
todavía
contamos
con
una
tecnología
cuyos
moderos
del
envuje
mayoritarios
han
sido
entrenados
en
inglés
y
con
datos
de
internet
esto
quiere
decir
que
los
problemas
que
comentaba
antes
desde
el
punto
de
vista
semántico
lexico
morfológico
sintáctico
todavía
no
están
bien
resueltos
sobre
todo
cuando
entramos
ya
en
variantes
sociológicas
en
variantes
orales
en
contextos
específicos
de
ámbitos
de
dominio
como
puede
ser
pues
el
ámbito
asegurador
el
ámbito
legal
el
ámbito
médico
y
cuáles
son
los
usos
del
lenguaje
que
se
hacen
para
cada
uno
de
ellos
el
reto
que
tenemos
ahora
mismo
es
muy
grande
y
es
un
reto
no
solamente
computacional
ni
empresarial
es
un
reto
lingüístico
en
el
que
todos
y
cada
uno
de
nosotros
tenemos
mucho
que
decir
este
jacatón
pues
hace
un
hallabamiento
a
esa
accesión
de
datos
a
esa
donación
pero
no
sólo
hay
que
donar
esos
datos
después
tenemos
que
construir
con
ellos
tenemos
que
conseguir
que
creemos
unos
modelos
que
resuelvan
de
ver
los
problemas
que
queremos
resolver
tenemos
que
poder
evaluarlos
porque
al
final
cuando
hacemos
un
modelo
lo
primero
que
tenemos
que
saber
para
ver
si
funciona
es
meternos
en
un
benchmark
saber
exactamente
por
qué
se
dice
que
gpt4
es
mejor
que
yemen
y
por
qué
no
es
lo
contrario
esto
hay
que
probarlo
matemáticamente
con
datos
y
tenemos
que
tener
un
método
científico
para
poder
evaluar
esto
que
es
casi
tan
importante
como
producirlo
entonces
también
tenemos
que
trabajar
en
toda
esta
parte
de
evaluación
de
modelos
para
para
el
ámbito
del
español
y
no
queremos
no
podemos
esperar
a
que
bueno
pues
se
lo
lo
hagan
otros
que
no
seamos
nosotros
es
decir
aquí
es
muy
importante
también
que
todo
este
contexto
todo
este
conocimiento
de
para
qué
se
usa
determinada
palabra
o
en
qué
contexto
se
usa
o
cómo
se
utiliza
la
tecnología
para
resolver
un
determinado
tema
también
sea
cuestión
de
cada
uno
de
nosotros
y
por
eso
es
tan
importante
que
eventos
como
este
pues
abran
la
puerta
a
más
desarrollos
a
la
creación
de
nuevas
empresas
a
la
creación
de
nuevos
corpus
y
a
la
evaluación
también
de
todo
lo
que
se
está
haciendo
desde
un
punto
de
vista
de
esa
exactitud
o
de
ese
funcionamiento
porque
como
bien
veníamos
diciendo
aún
estamos
en
esta
punta
de
dice
ver
han
pasado
muchas
cosas
en
los
últimos
años
y
sobre
todo
en
este
último
año
han
pasado
unas
cosas
que
nos
han
hecho
volvernos
a
todos
de
locura
pero
aún
queda
muchísimo
más
por
verse
este
año
próximo
va
a
ser
emocionante
y
los
próximos
cinco
se
puede
asegurar
que
también
y
me
siento
muy
privilegiada
de
estar
donde
estoy
y
poder
ver
esto
desde
la
primera
fila
del
teatro
pero
realmente
creo
que
esto
no
hay
que
verlo
desde
la
barrera
de
esaplaza
de
todos
los
o
desde
ese
teatro
sino
que
hay
que
verlo
desde
el
escenario
porque
nosotros
somos
los
principales
actores
de
esta
obra
y
gracias
a
nosotros
irán
avanzando
todas
estas
cosas
como
decía
maro
y
minski
que
mencionaba
al
principio
el
fundador
del
primer
laboratorio
de
inteligencia
artificial
del
mt
los
robots
se
le
dan
a
la
tierra
sí
pero
nosotros
seremos
sus
padres
así
que
con
esta
inauguración
llamo
a
todos
a
participar
en
el
jacatón
y
que
esto
no
sólo
se
quede
en
el
jacatón
sino
que
sea
el
principio
de
una
nueva
aventura
en
la
que
cada
uno
de
nosotros
ponga
un
granito
de
arena
para
hacer
avanzar
la
inteligencia
artificial
en
español
y
por
supuesto
yo
estaré
aquí
para
ayudarles
a
todos
ustedes
y
para
poder
colaborar
en
todas
las
iniciativas
que
vayan
a
favorecer
a
nuestra
lengua
a
favorecer
la
banca
de
la
inteligencia
artificial
y
a
construir
soluciones
para
que
hagamos
humanos
mejores
gracias
a
esta
tecnología
maravillosa
muchísimas
gracias
muchísimas
gracias
elena
la
verdad
que
súper
completa
la
quinoa
te
hemos
hablado
de
todo
bueno
has
hablado
de
todo
y
bueno
obviamente
me
ha
parecido
muy
bueno
me
ha
cantado
el
enfoque
en
la
diversidad
también
el
llamado
a
participar
y
a
ser
actores
y
bueno
la
verdad
que
bueno
yo
me
estoy
en
latinamérica
y
el
caribe
y
me
estoy
enamorando
de
los
acentos
también
me
ha
hecho
mucha
gracia
el
ejemplo
de
cómo
se
dice
eso
amiga
o
colega
yo
siempre
pongo
el
ejemplo
de
cómo
decimos
que
algo
nos
encanta
es
guay
chévere
bacana
y
también
50
mil
maneras
de
expresar
eso
entonces
bueno
muchas
gracias
y
vamos
a
ver
si
hay
preguntas
podéis
escribir
las
preguntas
en
el
chat
en
youtube
y
tenemos
una
de
joan
manuel
nos
dice
voy
a
ponerla
aquí
para
que
la
puede
leer
todo
el
mundo
elena
muchas
gracias
por
tu
charla
una
pregunta
general
cuál
es
la
mayor
aplicación
del
lm
es
que
ves
con
mayor
impacto
en
el
mercado
laboral
al
menos
en
lo
inmediato
interesante
muchas
gracias
por
mano
el
bueno
esto
de
jugarse
a
la
mayor
aplicación
es
muy
difícil
porque
depende
tanto
del
caso
de
uso
que
verdaderamente
hay
que
analizarlo
caso
a
caso
pero
yo
diría
que
la
mayor
aplicación
es
la
productividad
es
decir
o
sea
los
fenómenos
como
conocidos
como
los
copilot
son
los
asistentes
virtuales
ahora
mismo
lo
que
nos
están
demostrando
es
que
tareas
que
me
llevaban
muchas
horas
pues
han
podido
reducir
su
tiempo
gracias
a
herramientas
que
me
reducen
ese
tiempo
de
tareas
inútiles
y
cuando
hablo
de
copilot
estoy
pensando
pues
en
asistentes
que
hacen
que
resuma
ese
texto
que
haga
esa
búsqueda
de
una
forma
más
veló
que
redacte
un
correo
electrónico
por
mí
que
haga
ese
proceso
en
el
día
a
día
pues
más
ágil
y
al
final
pues
los
niños
empezaron
el
cole
con
el
chac
que
pete
nosotros
lo
estamos
utilizando
en
el
trabajo
y
esa
tendencia
a
extenderlo
a
todas
las
capas
como
herramienta
de
productividad
creo
que
es
lo
que
a
todos
nos
está
afectando
nos
va
a
afectar
como
fue
el
uso
de
internet
los
teléfonos
móviles
o
del
ordenador
personal
creo
que
esta
es
como
la
primera
capa
y
luego
ya
las
segundas
es
buscar
ese
caso
de
uso
más
concreto
dependiendo
del
tipo
de
datos
que
se
tenga
o
sea
aquí
por
ejemplo
creo
que
hay
dos
ámbitos
en
la
parte
de
lenguajes
fundamentales
o
sea
la
voz
y
el
texto
entonces
en
la
parte
de
voz
todo
lo
que
son
sistemas
de
asistencia
tanto
para
lo
que
es
especial
teis
es
decir
por
ejemplo
colcente
transcripciones
de
conversaciones
consultas
de
médico
todo
lo
que
es
habilizar
toda
esa
transcripción
y
extracción
de
insides
de
conversaciones
y
usó
grabar
una
reunión
y
sacar
un
resumen
y
unas
notas
de
esa
propia
reunión
pues
es
una
es
una
realidad
que
ya
tenemos
en
el
día
a
día
en
nuestros
propios
sistemas
de
trabajo
y
luego
toda
la
parte
de
procesamiento
de
documentación
o
sea
y
creo
que
hay
un
melón
que
todavía
no
se
ha
explotado
de
forma
adecuada
y
es
la
cantidad
de
tiempo
que
perdemos
leyendo
documentos
redactando
documentos
y
revisando
documentos
y
aquí
nos
pueden
ayudar
muchísimo
todosestos
sistemas
de
lenguaje
hay
bueno
pues
a
buscar
información
a
comparar
documentos
de
todas
estas
tareas
que
quizás
no
son
lo
más
importante
de
lo
que
hacemos
muy
bien
la
verdad
que
totalmente
de
acuerdo
cada
vez
estamos
utilizando
más
en
nuestro
día
a
día
y
seguirá
subiendo
tenemos
otra
pregunta
sobre
si
los
modelos
bueno
que
dice
que
si
los
modelos
funcionan
mejor
cuanto
más
grande
es
el
data
sobre
el
que
entrenan
no
siempre
hay
hay
papers
interesantes
sobre
este
tema
crees
que
tiene
tienen
alguna
posibilidad
los
modelos
en
español
de
igualar
en
calidad
a
los
modelos
multilingües
bueno
yo
creo
que
está
es
una
pregunta
bastante
compleja
de
contestar
en
el
sentido
de
que
depende
mucho
del
caso
es
decir
o
sea
aquí
como
decía
antes
esto
no
es
burro
grande
ando
no
ande
es
decir
los
modelos
grandes
han
demostrado
que
ahora
mismo
tienen
el
mejor
performance
a
la
hora
de
haber
sido
entrenados
con
datos
masivos
pero
una
tendencia
que
estamos
viendo
ahora
mismo
es
a
lo
que
son
ese
lm
es
la
es
la
lengua
es
más
o
sea
por
ejemplo
sacó
fi
2
pero
están
saliendo
cositas
bastante
interesantes
que
lo
que
hacen
es
ir
a
resolver
determinado
tipo
de
tareas
con
un
coste
mucho
menor
y
una
capacidad
de
computación
más
pequeña
entonces
esto
permite
que
sean
más
baratos
que
se
puedan
correr
más
rápido
que
tengan
menor
latencia
que
se
puedan
desplegar
en
dispositivos
móviles
y
que
al
final
pues
sean
más
ágiles
a
la
hora
de
combinarlos
entonces
si
bien
esta
primera
tendencia
ha
sido
al
modelo
grande
ahora
lo
que
se
está
buscando
son
eficiencias
así
que
la
respuesta
es
triki
porque
depende
de
para
qué
entonces
también
los
modelos
generalistas
eran
necesarios
para
empezar
a
trabajar
desde
un
punto
de
vista
de
bueno
primero
tengo
internet
y
tengo
todo
pero
luego
tengo
que
ver
en
qué
páginas
busco
entonces
ahora
estamos
en
esa
segunda
fase
de
en
qué
páginas
busco
qué
modelo
se
utilizo
para
resolver
las
tareas
que
yo
necesito
resolver
porque
ahora
mismo
tú
no
necesitas
un
modelo
grande
para
todo
eso
ya
lo
tienes
en
los
buscadores
lo
tienes
en
las
fpte
y
lo
tienes
en
binglo
tienes
en
todos
pero
ahora
lo
que
necesitamos
es
bueno
pues
tengo
mi
despacho
de
abogados
y
tengo
mis
documentos
y
quiero
que
la
respuesta
sea
la
mejor
para
un
abogado
y
que
además
escriba
como
yo
y
utilice
mi
documentación
entonces
una
de
las
cosas
que
estamos
viendo
es
que
no
solamente
son
modelos
sino
que
lo
que
necesitamos
son
arquitecturas
de
raf
retriba
la
unidad
de
generación
que
lo
que
tiene
es
una
combinación
de
modelos
como
motor
de
inteligencia
y
por
otra
parte
de
mis
datos
para
trabajar
sobre
mis
datos
con
modelos
que
vayan
a
realizar
las
tareas
que
yo
quiero
entonces
para
esto
no
necesitamos
grandísimos
modelos
y
una
combinación
de
herramientas
existentes
una
arquitectura
de
datos
y
bueno
pues
sistemas
que
funcionen
bien
para
lo
que
yo
quiero
hacer.
Efectivamente
y
después
también
añadir
que
bueno
como
no
tenemos
una
líder
en
español
tampoco
podemos
mirar
muy
bien
si
estos
modelos
son
muy
lindos
realmente
están
pues
son
más
potentes
o
en
qué
punto
pues
mejoran
a
los
que
sean
entrenados
únicamente
en
español
o
dependen.
Tenemos
que
trabajar
mucho
en
la
parte
de
modelos
en
español
o
sea
yo
no
estoy
pensando
tanto
en
un
gran
modelo
desde
pites
de
cero
pero
sí
que
es
verdad
que
ahora
mismo
hay
una
opción
que
es
bastante
interesante
y
es
coger
modelos
existentes
y
hacer
fine
tuning
sobre
ellos
con
determinados
corpus
entonces
una
cosa
que
sí
que
se
puede
hacer
y
es
bastante
más
fácil
y
menos
costoso
que
hacer
un
modelo
grande
es
coger
un
modelo
existente
modelo
que
se
puede
hacer
un
fine
tuning
con
un
data
set
específico
que
puede
ser
geográficamente
sobre
un
ámbito
o
automáticamente
sobre
un
área
y
esto
funciona
bastante
bien
en
muchos
de
los
tasos.
Efectivamente,
esa
es
un
poco
la
idea
que
cada
equipo
del
hackathon
que
cada
equipo
cree
un
cuerpo
de
instrucciones
de
una
temática
o
una
variedad
de
un
país
específico
yque
hagan
fine
tuning
y
después
si
podemos
ya
a
nivel
organización
entrenar
un
modelo
con
más
datos
pues
mejor
que
mejor
porque
habrá
falta
más
máquinas
pero
bueno
vemos.
Bueno
pero
es
bueno
y
ya
lo
arreglamos.
Lo
arreglamos
perfecto
genial
contar
con
tu
apoyo.
Marian
nos
dice
bueno
primero
que
muy
buena
charla
quería
consultarte
Elena
como
ves
a
los
frameworks
y
tecnologías
alrededor
de
los
LLMS,
Lantern,
Yamain,
de
STC
en
términos
de
madurez.
¿Es
recomendable
implementarlas
en
producción?
Pues
de
nuevo
aquí
te
digo
ni
sin
irnos
sino
todo
lo
contrario,
es
decir
depende
de
para
qué.
Aquí
no
podemos
decir
que
es
un
LLMS
grande
o
pequeño
pues
depende
del
caso
de
uso
y
depende
de
lo
que
queramos
hacer
con
ello.
O
sea
que
al
final
lo
que
vemos
es
que
todo
lo
que
llamamos
ML
Ops
todo
lo
que
es
operativa
en
torno
a
las
arquitecturas
que
van
jugando
con
sistemas
inteligencia
artificial
de
IA
y
modelos
genéricos
necesitan
pues
una
serie
de
piezas
que
son
las
que
han
surgido
pues
a
partir
de
todas
estas
arquitecturas
desde
las
bases
de
datos
vectoriales
hasta
todos
los
sistemas
de
orquestación
como
son
la
Anshin,
Yamain,
etcétera
para
poder
ponerlos
en
producción.
O
sea
a
mí
un
modelo
persenome
sirve
para
nada
y
esto
es
también
lo
que
tenemos
que
tener
claro
al
final
que
esta
inteligencia
artificial
funcione
es
una
serie
de
piezas,
necesita
una
arquitectura
donde
tenemos
que
tener
capacidad
computacional,
sistemas
para
poder
en
producción
y
desplegar
los
modelos
datos
en
toda
la
parte
de
arquitectura
y
luego
pues
un
poco
el
que
queremos
o
como
queremos
hacer
esta
consulta
a
todos
estos
datos.
Entonces
dependiendo
de
lo
que
se
quiera
hacer
pues
hay
piezas
que
son
más
adecuadas
que
otras
o
sea
uno
es
lo
mismo
hacer
un
prototipo
de
un
bot
para
una
prueba
con
un
corpus
pequeño
de
datos
que
poner
esto
en
producción
para
reclamaciones
de
una
aerolínea
y
tener
un
sistema
en
que
todo
el
mundo
reclama
la
vez
porque
es
cuando
se
retrasa
el
vuelo.
Entonces
pues
esto
requiere
ya
unas
distintas
capacidades
y
sobre
todo
pues
sistemas
que
no
solamente
van
a
toda
esta
parte
tan
bonita
de
inteligencia
artificial
sino
que
requieren
también
pues
arquitectura
de
la
de
siempre
y
de
la
buena
en
toda
la
parte
de
data
para
que
sus
sistemas
se
sostenga
porque
no
olvidemos
que
son
sistemas
computacionalmente.
Bueno
pues
todavía
les
queda
un
ratito
y
que
son
muy
costosos
de
mantener
y
de
poner
en
producción
y
hay
temas
de
latencia
y
hay
temas
de
arquitectura
de
software
que
son
importantes
cuando
manejamos
grandes
volúmenes
de
datos.
Entonces
a
la
hora
de
elegir
una
solución
hay
que
tener
en
cuenta
muchas
cosas.
Sí,
sí,
no
es
trivial
para
nada.
Bueno
la
gente
está
animando
y
están
llevando
más
preguntas
pero
bueno
si
queréis
leemos
como
mucho
una
o
dos
más
porque
ya
llegamos
a
las
tres
o
bueno
Elena
en
vez
de
ser
tan
increíble
generosa
con
tus
respuestas
también
puedes
acceder.
Es
por
ti
para
que
bueno
si
no
las
recogemos
y
os
lo
vamos
a
expandir.
Leemos
la
siguiente
de
Gabriel
nos
dice
nos
pregunta
qué
técnicas
crees
que
sean
mejores
para
crear
un
modelo
específico
para
educación
que
pueda
pindar
mejores
respuestas
en
un
campo
que
es
HPT.
Mencionaste
ya
el
RAG
a
ver
si
hay
otras.
A
ver
el
RAG
es
una
arquitectura
entonces
aquí
lo
que
nos
permite
el
RAG
es
utilizar
un
modelo,
consultarlo
sobre
nuestros
datos
y
permitir
que
ese
modelo
aparte
del
conocimiento
que
ya
tiene
en
su
entrenamiento
pues
sea
capaz
de
responder
con
un
determinado
contenido
entonces
qué
ventajas
tiene
esto
bueno
por
un
lado
que
evita
las
alucinaciones
o
sea
no
se
inventan
las
cosas
cuando
no
la
sabe
o
sea
le
podemos
orientar
a
un
tema
de
grounding
es
decir
que
sólo
me
conteste
sobre
la
información
que
yo
le
doy
pero
bueno
pues
dependiendo
también
del
caso
de
uso
tiene
sus
limitaciones
es
decir
si
un
modelo
no
ha
sido
entrenado
en
nuestro
idioma
o
no
ha
sido
entrenado
en
un
determinado
dominio
pues
va
a
fallar
y
básicamente
salióun
point
tuning
es
decir
o
sea
que
hay
como
tres
niveles
a
la
hora
de
utilizar
todo
esto
uno
es
el
nivel
del
prompting
que
es
como
esta
primera
consulta
que
como
si
le
pregunta
un
modelo
para
que
me
conteste
bien
esto
no
es
trivial
y
se
habla
hasta
de
prompting
engineering
que
es
cómo
aprender
a
dar
instrucciones
a
un
modelo
para
que
me
conteste
de
la
forma
adecuada
lo
que
yo
quiero
entonces
al
nivel
de
prompting
se
pueden
hacer
muchísimas
cosas
porque
parte
del
contexto
se
puede
meter
en
el
prompt
para
hacer
que
estas
respuestas
sean
las
adecuadas
otra
es
el
ecosistema
del
RAG
donde
aquí
pues
lo
que
vamos
a
meter
los
datos
y
combinando
estas
dos
pues
se
pueden
resolver
diríamos
que
el
90%
de
los
casos
en
el
tema
del
campo
de
la
educación
y
en
todos
cuando
ya
hablamos
de
temas
muy
específicos
donde
como
digo
pues
no
está
el
modelo
entrenado
con
los
datos
podríamos
hablar
de
hacer
ese
point
tuning
y
aquí
pues
como
digo
las
cosas
dependen
o
de
si
es
una
lengua
que
no
tiene
el
modelo
de
si
es
un
dominio
en
el
que
de
verdad
pues
hay
es
necesario
por
ejemplo
entrenado
modelo
en
un
ámbito
legal
como
decía
antes
un
modelo
que
en
España
uno
sea
entrenado
en
ámbito
legal
no
pues
falla
como
una
escopeta
de
cañas
porque
no
tiene
el
contexto
histórico
que
lleva
a
nuestro
sistema
jurídico
entonces
probablemente
sí
que
sea
importante
trabajar
aquí
pero
en
el
campo
de
la
educación
y
en
todos
entonces
se
trata
de
ver
un
poco
cuáles
son
esas
piezas
para
conseguir
la
mejor
solución
esto
no
es
blanco
negro
es
hacer
casi
encaje
de
bolillos
para
que
las
cosas
funcionen
adecuadamente
estamos
hablando
de
datos
no
estructurados
no
lo
olvidéis
el
lenguaje
es
caprichoso
lo
es
lo
es
dicho
por
la
lingüista
que
se
me
olvidó
decirlo
en
tu
presentación
carlos
nos
hace
otra
pregunta
qué
opinas
del
creciente
uso
de
datos
sintéticos
en
el
entrenamiento
de
modelos
desde
un
punto
de
vista
utilitarista
parece
dar
buen
rendimiento
pero
metodológicamente
presenta
ciertas
dudas
no
bueno
pues
como
decía
antes
depende
es
decir
o
sea
una
de
las
cosas
que
se
está
haciendo
para
toda
la
parte
de
datos
sintéticos
es
la
traducción
de
datos
es
decir
cuando
tenemos
suficiente
corpus
para
poder
hacer
un
entrenamiento
y
necesitamos
pues
que
haya
variedad
se
generan
datos
sintéticos
y
esto
hace
bueno
pues
por
un
lado
que
se
hará
telecoste
por
otro
lado
que
se
mejore
el
resultado
si
el
procedimiento
es
bueno
mejor
el
resultado
y
bueno
nos
está
incursando
en
ningún
tipo
de
problema
pues
no
habría
un
porque
dudar
de
la
metodología
no
sea
al
final
de
lo
que
se
trata
es
de
mejorar
las
herramientas
y
de
conseguir
que
nos
den
los
resultados
que
nosotros
queremos
es
al
final
los
modelos
lo
que
tenemos
que
tener
muy
claro
es
que
reproducen
lo
que
nosotros
estamos
en
los
datos
y
para
poder
hacer
que
funcionen
bien
pues
necesitan
un
volumen
y
una
variedad
adecuada
gracias
a
que
la
propia
inteligencia
artificial
es
capaz
de
generarlos
pues
es
un
buen
sistema
para
no
tener
que
utilizar
datos
originales
que
son
más
caros
más
imperfectos
y
que
muchas
veces
no
están
disponibles
grandes
problemas
y
efectivamente
de
hecho
en
el
hackathon
como
como
colaboramos
siempre
con
Archila
este
año
el
equipo
nos
ha
preparado
un
no
punto
ejemplo
para
utilizar
su
nueva
librería
distil
label
efectivamente
para
crear
data
sets
con
o
sea
de
datos
de
datos
sintéticos
vaya
que
les
ha
dado
muy
buen
resultado
con
algunos
modelos
con
notus
y
con
esa
familia
a
ver
datas
y
más
generales
una
pregunta
sobre
un
caso
de
uso
concreto
la
traducción
del
mudena
crees
que
los
lm's
llegaran
a
sustituir
a
los
nm's
o
sea
neural
machine
translation
o
es
coste
de
tiempo
de
datos
depende
otra
vez
bueno
a
ver
yo
creo
que
aquí
es
una
combinación
o
sea
es
que
los
nm's
al
final
están
pasados
en
redes
neuronales
los
lm's
también
entonces
la
traducción
al
final
ha
mejorado
muchísimo
con
los
lm's
y
se
seguirán
usando
o
sea
la
respuesta
creo
que
en
este
caso
es
sí
porque
cada
vez
lo
que
vamos
viendo
es
que
la
tecnología
que
va
subiendo
mejor
elresultado
y
en
el
caso
de
la
traducción
es
uno
de
los
casos
que
para
mí
es
claro
el
que
se
está
dando
un
salto
exponencial
en
toda
la
parte
de
cómo
se
está
bueno
cómo
está
funcionando
sobre
todo
a
la
hora
de
la
corrección
del
resultado
no
me
digáis
que
no
me
ha
gustado
coger
un
email
que
has
descrito
en
inglés
medio
su
sube
y
pasarlo
por
el
por
un
gpt
y
una
perfecto
a
veces
hay
que
tener
hasta
cuidar
con
palabras
que
yo
no
diría
a
ver
si
me
van
a
pillar
no
hay
tongos
simplemente
quería
hacer
preguntas
que
sean
más
genéricas
pero
bueno
ya
que
insiste
yo
no
es
quiere
preguntar
nos
dice
que
justo
se
puso
a
estudiar
y
a
utilizar
el
nm's
desde
que
vio
la
publicación
del
inte
entonces
pregunta
que
qué
tal
el
desarrollo
bueno
bien
desde
que
salió
el
inte
a
esta
parte
ha
llovido
mucho
en
el
ámbito
de
los
modelos
de
lenguaje
o
sea
digamos
que
todos
hemos
puesto
nuestro
nm's
de
arena
pero
ahora
mismo
lo
que
estamos
viendo
en
el
ecosistema
es
que
hay
muchísimas
soluciones
que
han
superado
bueno
pues
muchos
desarrollos
en
este
sentido
entonces
ahora
mismo
lo
que
hay
que
hacer
es
construir
sólo
lo
último
que
sale
o
sea
y
sin
miedo
a
barrer
todo
lo
que
uno
ha
hecho
antes
porque
al
final
esto
es
como
la
investigación
o
sea
cada
paso
que
se
ha
dado
va
para
para
facilitar
el
siguiente
pero
a
veces
se
comete
el
error
y
esto
vamos
estamos
viendo
muchas
empresas
que
llevan
toda
la
vida
trabajando
en
temas
de
procesamiento
del
lenguaje
natural
que
le
han
cogido
mucho
cariño
a
su
bebé
pero
es
que
el
problema
es
que
la
tecnología
ha
cambiado
mucho
entonces
hay
veces
en
que
hay
que
barrer
para
atrás
todo
lo
que
uno
ha
hecho
incluso
y
decir
vamos
a
ver
ahora
mismo
la
ciencia
va
por
aquí
me
tengo
que
subir
a
siguiente
escalón
así
que
ese
es
el
mensaje
o
sea
en
este
campo
hay
que
ir
a
basarse
en
lo
último
que
ha
sabido
y
si
me
preguntas
sobre
qué
construyes
hoy
te
diría
que
miremos
un
poco
el
benchmark
de
modelos
y
sobre
el
último
que
mejor
funcione
hagamos
una
prueba
muy
buena
respuesta
y
con
mucha
mucha
ilusión
y
motivación
para
el
ante
ya
dos
últimas
recomendar
o
por
ejemplo
algún
desarrollo
para
despliegue
on
device
ya
que
hablaste
mencionaste
esto
en
en
tu
charla
si
vamos
a
ver
aunque
todos
estos
modelos
están
desplegando
en
la
nube
o
sea
lo
que
estamos
viendo
también
es
que
por
un
lado
ni
todo
el
mundo
está
igual
de
conectado
ni
todas
las
soluciones
necesitan
una
conexión
y
una
potencia
para
un
desarrollo
es
decir
o
sea
un
despliegue
on
device
podría
ser
un
sistema
de
traducción
como
el
que
hemos
hablado
pero
es
que
esto
por
ejemplo
es
muy
necesario
pues
en
ámbitos
donde
la
conectividad
no
es
5g
como
tenemos
la
suerte
de
tener
aquí
entonces
no
olvidemos
también
en
que
en
un
mundo
en
que
las
gpu
sabras
se
convierten
en
bueno
pues
casi
lo
necesario
para
poder
correr
un
modelo
hay
muchos
lugares
donde
apenas
llega
a
internet
en
forma
bueno
pues
lo
suficientemente
potente
como
para
poder
hacer
una
consulta
rápida
y
menos
para
poder
interactuar
con
este
tipo
de
sistemas
entonces
por
un
lado
la
conectividad
es
un
asunto
y
por
otro
lado
las
aplicaciones
que
se
encuentran
en
entornos
en
torno
de
desplegados
entre
los
sistemas
pues
por
ejemplo
como
puede
ser
un
sistema
bancario
una
aplicación
de
pagos
etcétera
donde
no
necesariamente
tiene
que
haber
una
condición
una
conexión
de
internet
para
poder
hacer
ese
despliegue
de
modelo
entonces
bueno
que
hubo
también
hay
ámbitos
donde
se
están
viendo
el
desarrollo
de
modelos
en
greenfield
como
pueden
ser
pues
áreas
donde
la
seguridad
pues
es
fundamental
y
ni
siquiera
pues
se
están
desplegando
en
la
nube
aquí
ya
pues
son
casos
muy
específicos
porque
evidentemente
poner
un
modelo
y
subirlo
a
un
sistema
pues
es
muy
caro
respecto
a
ponerlo
en
una
nube
y
poder
desplegarlo
para
distintas
instancias
pero
pero
sí
se
está
investigando
también
mucho
en
este
sentido
porque
dependiendo
del
caso
de
uso
y
la
necesidad
tanto
por
exigencia
de
privacidad
y
de
seguridad
como
por
exigencia
de
conectividadpues
esto
abre
una
puerta
a
que
se
despliegue
en
modelos
en
en
ámbitos
donde
no
se
puede
genial
y
la
última
además
hacemos
así
como
un
buen
cierre
porque
nos
preguntan
sobre
microsoft
qué
opinas
del
último
paper
de
microsoft
de
net
que
parece
tan
prometedor
y
también
gracias
por
la
charla
creo
que
todo
el
mundo
la
ha
encantado
bueno
creo
que
ahora
mismo
o
sea
queda
muy
mal
hablar
de
la
propia
casa
de
uno
sobre
todo
cuando
lleva
poquito
tiempo
pero
creo
que
lo
que
el
papel
que
está
jugando
microsoft
en
el
ámbito
de
la
inteligencia
artificial
es
fundamental
también
a
la
hora
de
investigación
y
una
de
las
cosas
que
a
mí
como
lingüista
académica
y
convencida
de
que
la
investigación
y
la
empresación
inquieta
de
la
mano
es
ese
rol
de
estar
a
la
última
en
todo
lo
que
va
saliendo
entonces
bueno
creo
que
que
ahora
mismo
estoy
como
en
el
olimpo
de
donde
querría
estar
en
el
sentido
de
que
se
han
juntado
todos
estos
mundos
es
decir
necesitamos
que
haya
muchísima
investigación
porque
como
os
decía
tenemos
que
estar
a
la
última
de
lo
que
ha
salido
esta
semana
para
poder
ver
cuál
es
el
siguiente
desarrollo
pero
también
tenemos
que
ser
capaz
de
ponerle
producción
y
por
tanto
no
solamente
se
trata
de
investigar
sino
de
ser
capaz
después
de
montar
ese
modelo
de
desplegarlo
de
que
los
clientes
lo
puedan
consumir
y
de
poder
llevar
la
producción
y
que
no
tengamos
un
problema
después
de
que
lo
que
había
en
el
paper
no
se
puede
implementar
porque
no
hay
capacidad
computación
para
hacerlo
entonces
esto
es
pensarlo
inventarlo
idearlo
y
producirlo
hacer
toda
la
cadena
de
valor
de
principio
a
fin
y
para
eso
pues
creo
que
las
empresas
tienen
que
investigar
y
las
universidades
tienen
que
trabajar
con
empresas
así
que
hay
que
trabajar
mucho
en
este
círculo
porque
aquí
no
hay
ganadores
aquí
hay
colaboradores
y
creo
que
todos
somos
parte
de
ese
ecosistema
totalmente
muy
bonito
terminar
con
un
mensaje
de
colaboración
de
siempre
poder
construir
sobre
lo
que
ha
lo
que
ha
publicado
el
equipo
de
al
lado
de
enfrente
del
otro
país
del
otro
lado
del
de
el
océano
entonces
bueno
ya
con
este
mensaje
vamos
a
vamos
a
cerrar
la
charla
muchísimas
gracias
al
final
ha
sido
casi
una
hora
pero
bueno
muchísimas
gracias
Elena
por
por
compartir
toda
tu
experiencia
tu
conocimiento
también
con
las
preguntas
del
final
y
obviamente
pues
por
por
apoyar
a
somos
en
el
epi
y
nuestra
misión
muchas
gracias
María
un
abrazo
a
todos
y
suerte
en
el
sacatón
un
abrazo
[MÚSICA] | Elena González-Blanco |
La importancia de la diversidad lingüística, María Grandury @SomosNLP | Hackathon #Somos600M | Hola
a
todo
el
mundo,
hoy
comienza
la
segunda
semana
del
hackathon
"Somos
600M".
Y
sí,
la
pregunta
que
más
nacéis,
las
inscripciones
siguen
abiertas.
Esta
mañana,
de
hecho,
había
ya
450
personas
apuntadas,
o
sea,
es
increíble.
Y
muchísimas
gracias
a
todo
el
mundo
por
apoyar
nuestra
misión
de
crear
más
recursos,
y
sobre
todo
más
recursos
abiertos
y
diversos
en
español
y
las
lenguas
cooficiales.
Hoy
vamos
a
ver
tres,
bueno,
una,
aquí
no,
y
dos
talleres.
Primero
voy
a
empezar
hablando
yo
un
poco
sobre
la
importancia
de
la
diversidad
lingüística.
Veremos
el
impacto
del
hackathon,
cuáles
son
los
objetivos
que
tenemos
y
cómo
podéis
apoyar.
Será
muy
cortito,
menos
de
15
minutos.
Y
a
continuación
os
presentaré
a
Gabriel,
Gabriel
des
ingenieros
de
Machine
Learning
en
Archila,
donde
actualmente
se
centran
en
el
desarrollo
de
herramientas
para
la
generación
y
anotación
de
datos
para
el
entrenamiento
de
LLMS.
La
persona
perfecta
para
hablarnos
de
cómo
crear
datos
de
calidad
y
cómo
entrenar
modelos
como
notos,
¿vale?
Y
por
último
llegará
Manu
Romero,
ya
le
conocéis
de
otras
ediciones.
Machine
Learning
Engineer
y
CSO
en
Maesa
también
contribuye
muchísimo
con
HindFace,
tiene
más
de
500
modelos
en
el
hack
y
bueno,
también
investiga
en
varios
proyectos
internacionales.
Entonces,
vamos
a
empezar
esta
introducción
sobre
el
hackathon.
Pero
antes
de
decir
por
qué
necesitamos
diversidad
lingüística
y
por
qué
tiene
que
estar
representada,
vamos
a
ver
qué
es
muy
rápidamente,
no
vamos
a
entrar
en
temas
de
lingüística.
Hay
diferentes
variedades,
¿vale?
Diatópicas
o
geográficas,
que
serían
lo
que
comúnmente
llamamos
dialectos.
Diacrónicas
o
históricas.
Por
ejemplo,
yo
estoy
hablando
español
actual,
también
habría
moderno,
clásico
del
siglo
de
oro
y
medieval.
Variades
diastráticas
o
socioculturales,
que
son
los
diferentes
niveles
lingüísticos,
alto,
oculto,
medio
y
bajo,
global.
Y
las
diafásicas
o
funcionales,
que
serían
los
instintos
registros,
registro
coloquial,
formal,
familiar,
respetizarizado.
Entonces,
antes
de
hablarmos
del
mismo
tipo
de
español,
dependiendo
del
contexto
en
el
que
estamos,
¿vale?
Y
estas
son
esas
variedades.
Bueno,
y
ya
está.
Bueno,
si
os
interesa
un
poco
más
de
lingüística,
os
recomiendo
una
charla
de
Crisaranda
de
la
primera
edición
del
hackathon,
en
la
que
vimos
todo
esto
mucho
más
en
detalle.
Está
en
el
canal
de
YouTube.
Bueno,
os
he
dicho
por
el
canal,
bueno,
por
el
chat,
que
estaba
en
Buenos
Aires
y
es
que
llevo
un
mes
por
Latinoamérica
y
el
Caribe,
porque
estoy
más
enamorada
de
las
diferentes
maneras
que
hay,
bueno,
que
tenemos
de
expresarnos
en
español.
Hay
diferentes
maneras
de
nombrar,
por
ejemplo,
si
queremos
decir
que
algunos
encantan,
podemos
decir
que
chévere,
que
bacán,
que
guay,
podemos
tomar
la
agua
al
colectivo,
el
autobús.
También
hay
diferentes
expresiones
coloquiales,
dependiendo,
bueno,
en
el
lenguaje
oral.
Por
ejemplo,
en
Uruguay
dicen
todo
el
ratota
y
en
Chile
dicen
sípo,
no
puedo,
por
ratopó.
Y
en
Puerto
Rico,
donde
me
invitaran
a
dar
una
conferencia,
también
es
muy
común
utilizar
palabras
en
inglés.
De
hecho,
dos
de
cada
tres
palabras
sin
estar
en
inglés.
Entonces,
esto
es
del
punto
de
vista
de
modelos
del
lenguaje.
Es
muy
interesante
ver
cómo
respondería,
¿no?
Si
vas
cambiando,
mezclando
idiomas.
No
todo
es
escribir,
también
tenemos
diferentes
acentos,
muy
interesantes
desde
el
punto
de
vista
de
los
modelos
multimodales.
Por
ejemplo,
es
muy
común
el
cesio
en
Andalucía,
en
Canarias,
en
Latinoamérica,
en
Caribe,
por
eso
Vestón
Sol,
donde
hay,
donde
hace
bueno,
es
como
mi
cesio.
En
Argentina
y
Uruguay,
el
español
río
platense
que
dejamos,
utilizan
la
E
y
la
Y,
se
pronuncian
como
"sh".
También
aspiran
la
S,
de
hecho
aspirar
la
S
es
bastante
común,
por
ejemplo,
en
otras
zonas,
en
el
sur
España,
en
Chile,
en
diferentes
zonas
del
Caribe.
Y
así
como
otra
curiosidad,
en
Puerto
Rico
a
veces
cambian
la
R,
el
final
de
las
palabras,
por
L,
que
de
hecho
lo
habréis
escuchado
en
muchísimas
canciones.
Y
bueno,
hay
muchísimasparticularidades
más.
El
tema
es
que,
bueno,
a
mí
personalmente
me
encantan,
creo
que
son
preciosas,
y
todas
estas
maneras
de
expresarnos.
El
tema
es
que
en
general
los
modelos
de
lenguaje
hablan
un
tipo
de
español,
realmente
no
hablan
español
porque
es
muy
rico.
Entonces,
uno
de
los
objetivos
de
este
jacatón
es
crear
más
recursos
que
representen
todas
estas
variedades
de
la
lengua,
habladas
por
el
número
que
siempre
aparecen,
las
partes
que
es
600
millones
de
hispanohablantes.
El
tema
es
que
no
sólo
hablamos
español
en
estos
países
hispanohablantes,
por
ejemplo,
en
España
hay
cuatro
lenguas
oficiales,
que
serían
el
catalán,
el
valenciano,
el
leusquera
y
el
gallego.
Y
tenemos
el
proyecto
"Hilenia",
que
de
hecho
colaboró
con
el
jacatón
también,
y
los
subproyectos
digamos
"Aina
vives
en
el
gaitú
y
nos",
cuyo
objetivo
es
generar
más
recursos
en
estas
lenguas
oficiales.
En
Latinoamérica
y
el
grébet
también
encontramos
un
montón
de
otras
lenguas
habladas
en
estos
países.
Por
ejemplo,
en
México
tenemos
la
lengua
Nahuatl,
y
de
hecho
otra
charla
que
os
recomiendo
es
de
Ximena
Gutiérrez,
que
la
dio
también
en
la
primera
edición
del
jacatón
sobre
cómo
crearon
este
corpus
paralelo
de
Nahuatl
a
español.
En
Chile
tienen
en
la
isla
de
Pascua
la
lengua
de
la
civilización
Rapanui,
y
también
la
lengua
de
la
comunidad
originaria
Mapuche.
Entonces,
bueno,
aquí
he
puesto
un
montón
de,
bueno,
cuatro
logos,
que
serían
de
la
Atenia,
la
Unesía
Católica,
la
Academia
de
la
Lengua
Rapanui,
Instituto
de
Lengua
y
Cultura
Mapuche,
que
están
creando
pues
es
un
proyecto
para
crear
más
recursos
también
en
estas
lenguas
que
se
podan
en
su
país.
Y
también
lo
bueno
es
que
estamos
empezando
a
ver
también
varios
congresos
o
workshops
en
diferentes
congresos
sobre
lenguas
indígenas.
Entonces,
bueno,
estoy
seguraísima
de
que
hay
más
proyectos
que
no
conozco,
me
encantaría
que
me
los
pasasis
para
incluirlos
en
esta
diapositiva
y
apoyarlos,
darle
más
suficididad
dentro
de
lo
que
podamos
hacer.
O
sea
que,
bueno,
desde
aquí
pues
un
poco
el
mensaje
de
aunar
los
esfuerzos
para
impulsar
la
Aya
en
estos
idiomas
y
conseguir
que
tengan
representación
digital,
que
es
muy
importante.
Entonces,
¿qué
queremos?
Modulos
inclusivos,
bien,
y
para
eso
que
necesitamos
pues
datos
diversos,
¿vale?
Datos
diversos
que
representen
a
los
600
millones
de
personas
disponablantes,
porque
todos
ya
sabemos
que
la
Aya
no
hace
mágia,
o
sea,
si
no
hay
algo
en
los
datos,
después
no
va
a
aparecer
en
el
modelo,
o
sea,
el
modelo
no
va
a
ver
generar
texto
en
una
variedad
que
no
ha
sido
entrenado.
Y
¿por
qué
queremos
modelos
inclusivos?
Entre
otras
muchas
razones,
meteorcesgos,
ya
sean
de
género,
diversidad
de
opiniones,
o
también
pues
que
si
yo
voy
y
le
hablo
en
español
colombiano,
pues
me
responda
en
la
misma
variedad
que
no
me
mezcle
o
no
me
responda
en
español
neutro,
que
tampoco
existe,
¿vale?
Como
tal.
Y
también
muy
importante,
mitigación
de
desigualdades,
en
el
sentido
de
que
si
una
lengua
o
variedad
no
está
representada
en
el
mundo
digital,
la
brecha
sociocultural,
que
ya
existe,
casi
todos
en
muchos
de
los
casos,
se
va
a
hacer
mucho
más
grande
y
lejos
de
mitigarse.
Entonces,
bueno,
queremos
modelos
inclusivos,
necesitamos
datos
representativos
y
cómo
evaluamos
estos
modelos,
que
es
otra
pregunta.
De
hecho,
la
pregunta
más
común
que
nos
hacen
en
el
servidor
de
la
comunidad
en
Discord
es
¿cuál
es
el
mejor
modelo
en
español?
Y
el
tema
es
que
no
sabemos,
porque
no
hay
una
líder
board
pública
en
la
que
podamos
hacer
esta
comparación.
Entonces,
pues
bueno,
el
segundo
objetivo
de
este
hackathon
o
de
este
proyecto
es
crear
una
líder
board
abierta
de
LMS
en
español
y
lenguas
cooficiales
que
nos
permita
estandarizar
cómo
evaluar
y
comparar
nuestros
modelos.
Ahora,
en
general,
lo
que
pasa
es
que
cada
un
setuto
de
investigación
o
cada
empresa
tiene
su
propia
líder
board
pública,
es
abribada,
pero
necesitaríamos,
si
queremos
medir
el
avance
de
la
idea
en
español,
incentivartambién
una
competitividad
sana
y
probar
la
valida
de
nuestros
modelos,
pues
necesitamos
una
manera
pública
e
imparcial
de
evaluarlos.
O
sea
que
bueno,
recopilamos,
necesitamos
un
gran
corpus
diverso
y
una
líder
board,
entonces
esos
son
justo
los
dos
objetivos
del
hackathon
al
que
os
invito
a
uniros.
Está
ya
no
estáis.
Vamos
a
colaborar
en
equipos
de
hasta
cinco
personas,
ahora
os
explico
un
poco
más.
Siempre,
como
las
otras
audiciones,
con
la
intención
de
que
tenga
un
impacto
social
en
cada
proyecto
que
estén
relacionados
con
los
objetivos
desarrollados
sostenibles
de
la
ONU
y
a
la
vez
que
se
organiza
todo
esto,
pues
también
hay
keynotes
y
talleres,
como
el
ejemplo
de
los
dos
de
hoy,
ya
tuvimos
uno
el
jueves
pasado
de
Elena
González
Blanco
de
Microsoft
y
bueno,
tendremos
más
esta
semana,
más
la
que
viene
para
seguir
aprendiendo.
Y
las
keynotes
están
abiertas
también
a
la
gente
que
no
participe
en
desarrollar
proyectos.
Vale,
los
dos
objetivos,
crear
el
mayor
corpus
instrucciones
y
la
primera
líder
board
del
LMS
en
español,
¿cómo
se
puede
colaborar
con
el
corpus?
Pues
como
había
dicho,
vamos
a
hacer
uno,
ya
de
hecho
hay
bastantes
equipos
de
unas
cinco
personas.
Cada
uno
va
a
crear
una
parte
de
ese
gran
corpus,
por
ejemplo
crear
una
parte
enfocada
a
un
país
determinado
o
una
temática
específica.
Por
ejemplo,
un
corpus
de
políticas
de
igualdad
de
género
en
Chile,
¿vale?
Entonces
puedes
poner
un
ejemplo,
pero
puedes
coger
cualquier
PDF
y
generar
una
base
de
datos
de
preguntas
y
respuestas
a
partir
de
él.
¿Cómo
lo
creamos?
O
sea,
recomendamos
utilizar
Distill
Label,
que
de
hecho
justo
ahora
hay
cuarto,
bueno,
5
o
4
minutos,
Gabriel
nos
dará
un
taller
explicando
la
librería
y
bueno,
hemos
puesto
también
a
vuestra
disposición
un
notebook.
Una
vez
tengáis
el
corpus,
lo
utilizaréis
para
entrenar
vuestro
LLM
y
que
también
veremos
en
el
taller
siguiente,
como
podéis
entrar
este
LLM,
nos
preocupéis,
si
no
sabéis,
os
ayudamos
en
todos
los
pasos.
Otro
opción,
obviamente,
si
ya
tenéis
un
corpus
instrucciones
desarrollado
por
vuestro
grupo
de
investigación,
por
vuestra
empresa
X,
lo
podéis
donar.
Estábamos
muy
agradecidos.
Y
para
colaborar
con
la
Leaderboard
también,
obviamente,
aceptamos
donaciones
y
si
no,
estamos
organizando
un
esfuerzo
colaborativo
para
validar
las
traducciones
hechas,
las
traducciones
del
inglés
al
español
de
la
famosa
Open
LLM
Leaderboard,
¿vale?
Entonces,
pues
también
nos
invitamos
a
unirnos
a
este
esfuerzo.
Os
dejo
ahí
los
dos
enlaces,
tanto
para
participar
como
si
queréis
donar
un
corpus.
Como
sabéis,
en
todo
lo
que
hacemos
en
el
hackathon,
todo
lo
que
hace
la
comunidad
es
Open
Source.
Y
además,
por
favor,
os
invitamos
a
desarrollar
proyectos
de
manera
responsable.
¿Qué
significa
esto?
Que
presteis
atención
a
los
sesgos,
a
la
agüilla
de
carbono
y
a
la
documentación.
Muy
rápido.
La
ya
sabemos
que
depende
de
los
datos.
¿Vale?
Entonces,
¿cuál
es
el
problema?
Que
están
sesgados.
Vamos
mejorando
mucho
como
sociedad,
pero
siguen
viviendo
sesgos
inconscientes
o
inerentes
en
las
noticias,
páginas,
web,
libros
que
ya
hemos
escrito.
Entonces,
el
problema
es
que
cogemos
todo
este
contenido
para
entrenar
un
modelo.
Y
entonces,
como
los
modelos
aprenden
patrones,
pues
el
modelo
aprende
conducta
racistas,
homófobas,
cualquier
tipo
de
discriminación.
Mítico,
gracias
a
todos
los
mimos
serri,
de
garbage
in,
garbage
out.
Entonces,
bueno,
pues,
a
tenerlo
en
cuenta
ser
conscientes
y
sobre
todo,
pues,
incluirlo
en
la
documentación,
que
ya
lo
haremos
un
poco
más
de
ahora.
Y
ojo
al
impacto
medioambiental.
Sabemos
que
tienen
un
gran
impacto
todos
estos
modelos.
¿Cómo
mejorarlo
desde
vuestro
punto
de
vista
ahora
mismo,
eligiendo
el
tipo
de
energía?
Puede
ser
renovable.
O
sea,
el
final
es
decidiendo
qué
regiones
de
computación
utilizáis,
si
las
GPUs
son
eficientes
e
intentar
utilizarlas
el
100%
del
tiempo.
Y
sobre
todo,
intentar
reducir
todo
lo
que
podáis
el
tiempo
de
entrenamiento.
En
vuestro
caso,
hacer
pruebas
como
de
lospequeñitos
o
en
colab,
en
máquinas
un
poco
más
pequeñas.
Antes
de
ponerlo
a
entrenar,
el
gran,
entre
comidas,
gran
LLM,
¿vale?
Y
la
documentación,
por
favor,
es
inútil
un
modelo
que
no
tenga
documentación.
Entonces,
por
favor,
escribid
como
lo
habéis
entrenado,
con
qué
datos,
cuáles
es
la
evaluación,
todo
lo
que
podáis,
¿vale?
También
nos
dejaremos
una
guía
de
cómo
hacer
estos
tres
pasos
que
he
dicho
ahora
muy
rápido.
Y
además,
bueno,
un
comentario,
es
que
no
hay
más
excusas
por
la
documentación
porque
será
un
requerimiento
del
futuro
reglamento
de
IA
de
la
web.
Entonces,
por
favor,
documentación.
Y
ya
está,
justísimo
en
15
minutos.
Vamos
al
primer
taller,
tenéis
el
enlace
en
la
descripción
y
ahora
os
encuentro
ahí
con
Gabriel.
Muchas
gracias
y
hasta
ahora.
[MÚSICA] | María Grandury |
Taller: Argilla y distilabel, herramientas para crear datos de calidad, Gabriel @Argilla #Somos600M | Hola
a
todo
el
mundo
de
nuevo
estamos
en
la
segunda
segunda
semana
del
hackathon
bueno
al
parecer
en
la
charla
anterior
no
para
compartir
las
pantalas
o
sea
mis
mis
diapositivas
entonces
no
os
preocupéis
las
voy
a
poner
las
voy
a
o
las
voy
a
subir
como
decía
sí
que
están
las
inscripciones
abiertas
y
hoy
vamos
a
tener
los
dos
talleres
principales
del
hackathon
vale
primero
vamos
a
ver
con
gabriel
ingeniero
de
machine
learning
en
argila
como
podéis
utilizar
argila
y
distil
label
para
crear
data
sets
de
calidad
y
sobre
todo
para
entrenar
notus
vale
notus
es
una
lm
entrenada
por
argila
a
finales
de
año
2023
que
tuvo
muy
buenos
resultados
en
los
benchmarks
a
través
de
la
mejora
de
los
datos
de
entrenamiento
además
gabriel
nos
va
a
enseñar
cómo
crear
un
data
set
similar
utilizando
un
data
set
similar
a
lo
utilizado
en
el
fin
de
de
notus
utilizando
estas
dos
herramientas
que
os
comentaba
al
principio
argila
y
distil
label
entonces
bueno
ya
te
doy
doy
paso
a
gabriel
ya
estás
compartiendo
las
pantalas
todos
los
positivos
ahora
sí
entonces
bueno
podéis
publicar
vuestros
comentarios
para
gabriel
en
el
chat
de
youtube
y
al
final
del
taller
se
las
leeré
vale
entonces
bueno
muchas
gracias
gabriel
bien
venido
y
todo
tuyo
perfecto
gracias
pues
nada
como
bien
ha
dicho
maría
en
esta
charla
voy
a
estar
hablando
un
poco
sobre
notus
no
que
es
un
modelo
una
lm
que
entrenamos
en
argila
a
finales
de
año
de
2023
y
que
tuvo
muy
buenos
resultados
sobre
todo
porque
nos
centramos
en
en
analizar
los
datos
y
y
mejorarlos
y
con
ello
bueno
pues
conseguimos
muy
buenos
resultados
y
bueno
empiezo
explicando
mencionando
notus
para
ver
si
os
sirve
de
motivación
para
para
utilizar
herramientas
como
argila
y
distil
label
que
con
las
cuales
podemos
conseguir
bueno
pues
unos
data
sets
mejores
de
más
calidad
y
en
los
cual
podemos
bueno
pues
evaluar
distintos
aspectos
y
también
tener
en
consideración
otros
aspectos
como
filtrado
de
desesgos
y
demás
cosas
que
bueno
maría
ha
mencionado
en
su
anterior
charla
bueno
entonces
vamos
a
comenzar
nada
no
tus
es
una
familia
de
modelos
que
creamos
en
argila
y
donde
nos
centramos
sobre
todo
como
ya
he
dicho
en
una
en
una
mejora
a
través
del
modelo
a
través
de
la
mejora
de
los
datos
es
lo
típico
de
si
tienes
mierda
pues
puede
ser
que
entrenes
algo
que
que
sea
de
frente
pero
es
cuanto
mejor
sean
los
datos
mejor
va
a
ser
el
resultado
no
entonces
bueno
antes
de
comenzar
a
describir
un
poco
no
tus
no
quiero
recordar
un
poco
también
las
fases
de
entrenamiento
por
las
que
pasa
una
lm
entonces
bueno
tenemos
la
primera
fase
de
entrenamiento
no
en
la
cual
básicamente
se
construye
un
data
set
muy
muy
grande
haciendo
básicamente
es
creyping
de
páginas
web
de
internet
como
wikipedia
reddit
está
cover
flow
y
bueno
muchísimas
fuentes
más
y
bueno
esta
primera
frase
de
entrenamiento
es
un
entrenamiento
no
supervisado
porque
es
no
supervisado
no
hay
humanos
que
estén
etiquetando
estos
textos
que
se
tienen
de
internet
sino
que
lo
que
se
hace
es
que
se
entrenar
el
lm
metiendo
más
caras
en
los
textos
y
el
objetivo
del
modelo
entonces
es
predecir
la
palabra
que
hemos
enmascarado
y
entonces
con
esto
lo
que
se
lo
que
se
intentan
esta
primera
fase
es
que
bueno
el
modelo
aprenda
un
idioma
y
empieza
a
coger
bueno
obtenga
conocimiento
un
poco
más
generalista
no
luego
tenemos
una
segunda
fase
que
es
la
que
se
conoce
como
la
de
super
base
finetino
en
el
caso
de
de
los
elements
instrucción
finetino
y
bueno
esta
fase
sí
que
ya
tenemos
un
un
data
set
que
ha
sido
creado
por
humanos
y
bueno
etiquetado
por
humanos
o
como
veremos
más
tarde
también
puede
ser
que
sea
etiquetado
por
por
otras
lm
y
básicamente
lo
que
queremos
conseguir
en
esta
en
esta
fase
es
te
doy
una
instrucción
a
la
lm
y
queremos
una
instrucción
que
es
una
tarea
básicamente
y
queremos
que
aprenda
a
realizar
esa
tarea
no
entonces
también
le
damos
la
respuesta
para
que
aprenda
con
esto
conseguimos
que
nuestra
lm
aprenda
ciertas
tareas
o
aprenda
a
hacer
lo
que
para
lo
que
nosotros
queremosutilizarla
pero
aún
no
sigue
quedando
otra
fase
que
es
la
de
alineamiento
en
la
fase
previa
la
lm
aprendió
a
realizar
una
tarea
pero
a
lo
mejor
no
ha
aprendido
la
mejor
forma
para
hacerlo
o
de
la
forma
que
queremos
nosotros
queremos
alinearla
por
ejemplo
para
que
lo
haga
de
de
una
manera
más
honesta
o
por
ejemplo
si
es
un
chatbot
para
que
tenga
en
cuenta
que
está
hablando
con
un
humano
y
que
y
bueno
y
demás
aspectos
que
podemos
intentar
que
la
lm
aprenda
entonces
en
este
fase
básicamente
se
construyó
un
dataset
en
el
cual
a
nuestro
modelo
que
hemos
entrenado
con
super
vice
fine
tuning
básicamente
le
preguntamos
varias
veces
lo
lo
mismo
no
y
tenemos
varias
respuestas
y
luego
tenemos
un
humano
o
otra
lm
diciendo
cuál
de
cuál
de
las
respuestas
es
mejor
para
nuestro
caso
no
entonces
con
esto
conseguimos
un
un
dataset
de
preferencia
no
en
el
que
básicamente
tenemos
una
respuesta
que
es
la
elegida
y
otra
que
es
la
la
que
se
ha
rechazado
y
con
esto
pues
intentamos
que
la
lm
aprenda
esa
intención
que
nosotros
queremos
darle
y
bueno
sobre
el
alineamiento
la
primera
técnica
que
se
popularizó
para
para
alinear
la
lm
con
nuestras
preferencias
fue
el
uso
de
de
reinformer
redding
from
human
feedback
no
en
el
cual
con
los
datos
de
preferencia
que
hemos
creado
entrenamos
un
modelo
de
un
software
model
no
modelo
de
que
nos
va
a
dar
una
escora
o
una
recompensa
para
la
lm
entonces
utilizamos
la
lm
para
generar
una
respuesta
lo
pasamos
por
el
modelo
de
de
recompensa
y
este
modelo
de
recompensa
básicamente
lo
que
hace
es
darle
una
galleta
a
la
lm
y
se
ha
portado
bien
o
no
darle
nada
o
incluso
quitarle
comida
si
se
ha
portado
mal
por
así
decirlo
y
bueno
lo
único
malo
de
este
tipo
de
entrenamientos
que
es
un
poco
inestable
no
y
también
añadimos
entre
el
super
base
21
y
la
fase
de
alineamiento
como
un
paso
intermedio
que
requiere
entrenar
el
riguard
model
que
suelen
ser
pues
modelos
como
roberta
pero
bueno
ya
requiere
esa
ese
paso
de
extra
entrenamiento
entonces
lo
que
nos
dio
un
poco
la
vida
no
a
la
comunidad
o
las
ales
es
cuando
se
publicó
direct
preferencia
optimización
que
básicamente
es
un
algoritmo
que
también
utilizando
los
datos
de
preferencia
pero
sin
la
necesidad
de
entrenar
un
un
riguard
model
pues
básicamente
conseguimos
lo
mismo
esto
se
consigue
utilizando
el
modelo
que
hemos
entrenado
la
fase
2
como
modelo
de
referencia
y
lo
comparamos
con
el
modelo
del
cual
estamos
haciendo
feint
tuning
para
comparar
las
respuestas
y
mediante
una
función
de
pérdida
muy
chula
que
podéis
leer
en
el
en
el
paper
y
que
yo
no
voy
a
explicar
porque
me
tiraría
todo
el
día
y
aún
así
no
la
haría
bien
pues
se
consigue
se
consigue
esta
alineamiento
y
bueno
hoy
nos
vamos
sobre
todo
a
centrar
en
las
fases
de
super
base
fan
tuning
y
alineamiento
creas
dos
deitas
para
para
estas
dos
fases
porque
bueno
por
desgracia
la
fase
de
entrenamiento
todavía
no
es
no
podemos
hacerlo
empresas
pequeñas
o
incluso
comunidades
pequeñas
porque
bueno
requiere
requiere
muchos
recursos
que
sólo
unas
pocas
empresas
de
momento
tienen
vale
entonces
bueno
pues
os
voy
a
contar
la
historia
de
notas
ahora
y
para
empezar
a
contar
la
historia
de
notas
pues
tengo
que
empezar
a
contar
la
historia
de
de
otra
de
otra
organización
bueno
como
sabréis
a
finales
2023
mistral
bueno
finales
en
2023
mistral
e
hay
público
mistral
7b
uv
01
que
básicamente
es
un
modelo
de
7
billones
o
7000
millones
de
parámetros
si
hablamos
en
español
en
castigano
entonces
bueno
este
modelo
es
fue
pre
entrenado
con
con
datos
de
internet
como
ya
he
dicho
antes
y
fue
publicado
y
en
su
momento
pues
fue
el
mejor
modelo
pre
entrenado
de
este
tamaño
y
bueno
del
pues
han
nacido
una
infinidad
de
modelos
uno
de
los
modelos
que
han
nacido
fue
cefir
no
cefir
7b
que
básicamente
nació
de
un
experimento
de
de
un
equipo
de
havin
face
de
h4
del
cual
luiz
tostar
que
que
también
es
también
ha
estado
aquí
muchas
veces
en
somos
en
el
ep
pues
nada
lo
que
ellos
querían
hacer
es
básicamente
en
validar
que
se
podíaentrenar
a
un
modelo
con
con
dpo
y
para
eso
para
ello
preparan
este
pequeño
experimento
en
el
que
primero
hicieron
un
super
vice
21
de
utilizando
ultra
chat
que
es
un
modelo
generado
sintéticamente
utilizando
utilizando
chat
y
pt
y
después
hicieron
un
un
alineamiento
no
utilizando
dpo
la
técnica
que
mencionado
antes
y
y
ultra
feedback
que
es
otro
data
es
similar
a
ultra
chat
pero
en
el
que
tenemos
como
ya
he
dicho
antes
preferencias
no
en
una
fila
tenemos
una
una
unas
escores
que
nos
permiten
decir
si
si
una
respuesta
es
mejor
que
otra
y
bueno
con
esto
y
con
dpo
pues
conseguiron
cfir
7b
que
fue
un
modelo
pues
que
a
finales
de
2023
obtuvo
muy
buenos
resultados
en
los
benchmark
y
bueno
nosotros
en
argila
desde
vimos
todo
esto
vimos
que
había
una
tendencia
a
crear
datos
sintéticos
utilizando
otras
lm
y
decidimos
crear
distillable
que
es
el
el
framework
que
voy
a
enseñaros
un
poco
más
tarde
y
que
tenéis
que
utilizar
en
este
jacato
y
bueno
empezamos
a
desarrollar
distillable
y
también
queríamos
probar
otras
cosas
como
si
una
fase
si
una
segunda
fase
de
dpo
sobre
cfir
7b
beta
mejoraría
el
modelo
y
bueno
lo
que
nos
encontramos
o
lo
que
hicimos
al
final
fue
esto
volvemos
a
utilizar
ultra
feedback
para
utilizando
también
dpo
crear
notos
7b
uv1
a
partir
de
la
versión
cfir
7b
super
base
21
y
bueno
ahora
os
estábis
preguntando
que
qué
diferencia
hay
entre
notos
7b
uv1
y
cfir
7b
beta
porque
los
dos
utilizan
ultra
feedback
para
hacer
esta
fase
de
alineamiento
pues
la
diferencia
es
que
nosotros
cogimos
ultra
feedback
y
le
pusimos
una
una
tirita
porque
nos
encontramos
que
tenía
algún
fallito
y
como
nos
dimos
cuenta
de
estos
fallitos
bueno
pues
básicamente
subimos
el
data
sentí
ultra
feedback
a
argila
y
nos
dimos
cuenta
pues
que
había
algunas
puntuaciones
para
para
las
respuestas
que
se
habían
seleccionado
que
eran
muy
altas
sin
embargo
si
miramos
si
mirábamos
la
la
crítica
que
había
hecho
la
lm
que
también
había
sido
de
esa
nota
pues
no
tenía
sentido
no
tenía
sentido
porque
bueno
en
este
caso
por
ejemplo
cuál
es
un
animal
libro
o
bolígrafo
bolígrafo
es
un
animal
el
libro
es
un
animal
y
bueno
insisten
que
el
bolígrafo
es
un
animal
claramente
está
mal
está
fatal
de
hecho
pero
habis
aparecía
como
la
respuesta
elegida
y
con
muy
buena
nota
con
un
10
entonces
bueno
nos
dimos
cuenta
de
que
la
pipeline
que
habían
generado
bueno
que
habían
utilizado
el
grupo
de
investigación
que
creo
ultra
feedback
que
fue
open
bmv
pues
tenían
un
bug
en
el
cual
repitieron
bueno
había
2.000
filas
afectadas
por
este
bug
en
el
cual
básicamente
la
respuesta
elegida
era
muy
mala
pero
sin
embargo
se
la
había
puesto
una
escora
una
puntuación
de
10
entonces
bueno
utilizando
arreglando
esto
y
luego
también
también
nos
dimos
cuenta
de
que
bueno
en
ultra
feedback
por
cada
fila
se
y
por
cada
respuesta
no
se
estaba
generando
una
crítica
al
a
la
respuesta
a
la
cual
se
le
estaba
asignando
un
escore
entonces
por
ejemplo
en
el
trafico
si
para
una
respuesta
si
para
un
prom
teníamos
tres
respuestas
se
estaban
haciendo
tres
ricos
a
gpt4
con
cada
respuesta
y
se
le
estaba
preguntando
que
se
le
diera
darle
una
escora
esa
respuesta
y
bueno
y
una
y
una
explicación
detrás
de
esa
escora
y
luego
a
la
vez
también
se
había
hecho
más
o
menos
el
mismo
proceso
pero
si
teníamos
tres
respuestas
las
tres
respuestas
fueron
enviadas
en
el
mismo
en
la
misma
petición
a
a
pn
a
gpt4
para
que
más
o
menos
hiciera
lo
mismo
que
les
diera
un
escor
y
una
explicación
detrás
de
cada
escor
y
cuál
es
la
diferencia
diréis
entre
entre
estas
dos
maneras
de
bueno
de
obtener
más
o
menos
el
mismo
deitas
pues
que
en
uno
estamos
pasando
las
respuestas
todas
a
la
vez
entonces
esto
le
permite
a
la
lm
también
compararlas
y
y
también
determinar
cuál
es
mejor
que
la
otra
sin
embargo
en
esta
de
la
izquierda
como
ya
se
ha
comprobado
también
en
en
recientes
estudios
pues
las
lm
entre
ricos
no
son
las
puntaciones
que
dan
no
son
consistentes
entonces
bueno
nosotros
decidimos
crear
un
data
set
de
ultra
feedback
utilizando
estas
este
método
no
estas
escores
que
sehabían
generado
con
una
sola
petición
y
bueno
lo
que
conseguimos
básicamente
replicando
la
receta
que
compartieron
los
chicos
de
havin
face
que
por
cierto
muchas
gracias
porque
fue
muy
bueno
ayudado
muchísimo
y
y
bueno
y
también
hicieron
ver
que
dp
o
realmente
funcionaba
pues
básicamente
entrenamos
notos
7b
uv
1
que
superó
a
cfil
bueno
no
supera
cfil
en
en
mt
benz
que
es
un
un
benchmark
pero
sí
que
conseguí
acercarse
muchísimo
muchísimo
sin
embargo
en
alpac
a
val
val
consiguió
casi
un
punto
más
y
fue
incluso
mejor
que
clau
de
dos
que
es
un
modelo
que
seguramente
sea
bastante
más
grande
pero
no
sabemos
porque
es
privado
entonces
bueno
con
esto
espero
que
os
haya
servido
de
motivación
para
para
para
utilizar
herramientas
como
distilable
para
generar
datos
sintéticos
y
no
sólo
quedarse
ahí
sino
también
subir
esos
data
set
que
han
sido
generados
sintéticamente
a
una
plataforma
como
argila
y
evaluarlos
y
anotarlos
a
través
también
de
humanos
o
expertos
para
para
asegurarse
de
que
el
data
set
creado
es
es
bueno
y
con
el
que
vamos
a
entrenar
una
una
lm
entonces
bueno
ahora
voy
a
compartir
un
pequeño
notebook
que
he
creado
y
os
enseñaré
un
poquito
distilable
y
argila
y
cómo
crear
un
data
set
con
para
para
super
vais
fine
tuning
y
y
también
y
p
o
vale
pues
espero
que
podáis
podáis
estar
viendo
mi
pantalla
creo
que
sí
sino
decirme
lo
que
alguien
me
grite
por
favor
y
vale
pues
nada
en
este
en
este
notebook
lo
que
vamos
a
hacer
es
básicamente
cargar
un
un
data
set
en
este
caso
vamos
a
cargar
el
de
un
data
set
de
bueno
un
subset
de
de
la
wikipedia
no
de
artículos
en
español
y
lo
que
vamos
a
hacer
es
generar
un
un
data
set
para
super
vais
fine
tuning
y
más
tarde
un
data
set
para
para
dp
o
para
entrenar
una
para
alinear
una
lm
con
dp
o
entonces
bueno
básicamente
bueno
ahora
un
poquito
de
código
estándar
no
importamos
data
set
y
cargamos
el
data
set
del
havin
face
hub
en
este
caso
wikipedia
le
decimos
que
queremos
el
subset
de
español
y
bueno
el
data
set
de
la
wikipedia
es
bastante
grande
entonces
le
vamos
a
decir
que
que
no
lo
cargue
que
nos
lo
vaya
que
nos
lo
vaya
dando
poco
a
poco
desde
el
havin
face
hub
bueno
que
más
unas
funciones
vamos
a
crear
unas
funciones
no
que
permitan
filtrar
un
poquito
el
data
set
en
este
caso
no
me
interesan
los
artículos
que
son
de
desambiobación
son
estos
artículos
que
bueno
pues
una
palabra
puede
tener
varios
significados
no
varios
artículos
entonces
no
queremos
esos
esos
esos
artículos
los
vamos
a
filtrar
si
perdona
que
te
interrumpa
un
poquito
puedes
aumentar
y
así
lo
verán
mejor
sí
perfecto
vale
pues
continuó
y
bueno
luego
vamos
a
filtrar
artículos
en
los
artículos
no
queremos
mi
artículos
muy
cortos
ni
tampoco
muy
largos
y
nada
y
por
último
se
limpiar
un
poco
el
texto
eliminando
estas
cosas
que
suelen
estar
al
final
de
los
artículos
de
wikipedia
como
enlaces
externos
referencias
bibliografía
que
no
se
interesa
mucho
y
bueno
con
esta
función
vamos
a
ir
iterando
el
data
set
y
trayéndonos
filas
desde
el
havin
face
hub
para
construir
un
un
pequeño
subset
no
entonces
bueno
el
el
data
set
que
generamos
básicamente
va
a
tener
en
cuatro
columnas
el
id
del
artículo
la
url
y
el
título
y
el
contenido
del
artículo
vale
entonces
una
vez
que
tenemos
el
el
data
set
vamos
a
vamos
a
generar
un
un
data
set
a
partir
de
este
cortus
en
crudo
por
así
decirlo
que
hemos
traído
de
artículos
de
wikipedia
utilizando
una
cosilla
diferente
a
la
que
a
la
que
a
lo
otro
que
hemos
compartido
en
el
notebook
que
ya
compartimos
hace
unos
días
en
este
caso
vamos
a
utilizar
y
en
estruz
7b
que
es
una
lm
que
fue
recientemente
publicada
por
no
es
research
la
pasada
semana
y
bueno
me
ha
parecido
muy
interesante
no
porque
lo
que
nos
permite
esta
lm
es
generar
pares
de
instrucción
y
respuesta
pero
a
partir
de
de
una
fuente
que
nosotros
le
digamos
no
entonces
esto
está
muy
bien
porque
hay
otras
alternativas
para
generar
de
estos
estas
instrucciones
como
selfie
strut
pero
en
ese
caso
podemos
sufrir
los
efectos
algún
efecto
adverso
de
las
lm
como
las
alucinaciones
con
con
esteenfoque
de
pasarle
un
contexto
por
así
decirlo
bueno
es
un
contexto
podemos
evitar
más
las
alucinaciones
porque
la
esta
lm
para
lo
que
se
ha
entrenado
es
para
generar
una
instrucción
y
una
respuesta
a
partir
del
contexto
y
bueno
también
es
muy
interesante
porque
bueno
si
digamos
que
yo
que
sé
tu
empresa
o
tú
tienes
una
base
de
datos
bastante
grande
con
datos
en
español
pues
también
con
esta
manera
utilizando
esta
lm
puedes
generar
instrucciones
y
respuestas
para
luego
hacer
feint
y
un
de
de
otra
lm
que
tú
puedes
utilizar
ya
y
que
va
a
estar
entrenada
y
y
alineada
para
para
la
tarea
que
tú
quieres
desempeñar
entonces
bueno
también
me
viene
al
pelo
no
un
poco
lo
de
la
de
genestru
porque
genestru
ahora
mismo
no
está
integrada
en
distilable
pero
bueno
me
viene
bien
porque
así
también
os
puedo
explicar
un
poco
los
bloques
principales
de
distilable
y
cómo
podemos
implementar
estos
estos
bloques
para
para
hacer
una
cosa
un
poco
más
un
poco
más
custom
un
poco
más
personalizada
entonces
bueno
distilable
básicamente
tiene
dos
componentes
principales
no
que
son
una
lm
una
clase
lm
o
extracción
que
básicamente
es
la
que
se
encarga
de
nada
dado
dado
un
prom
pues
es
la
que
sabe
utilizar
la
lm
ya
sea
open
hay
un
modelo
o
pensar
como
lama
o
utilizando
otros
frameworks
como
vlm
o
lama
cpp
bueno
pues
sabe
utilizarlo
y
dado
un
prom
nos
va
a
dar
una
respuesta
y
luego
tenemos
otro
bloque
que
es
la
tarea
una
tarea
básicamente
define
lo
que
tiene
que
hacerle
el
el
y
cómo
cómo
hace
esto
cómo
lo
consigue
pues
básicamente
haciendo
prom
bien
y
en
el
y
la
tarea
define
un
un
bueno
un
molde
no
en
el
cual
dadas
unas
entradas
se
construye
este
prom
la
tarea
lo
construye
construye
el
prom
se
lo
pasa
a
la
lm
la
lm
devuelve
una
salida
y
esta
salida
generalmente
también
va
a
estar
estructurada
de
cierta
manera
por
la
cual
la
la
tarea
utilizando
técnicas
más
mondanas
o
normales
como
regular
expresión
expresión
es
regular
eso
simplemente
pues
eso
comprobar
si
si
empieza
con
o
cosas
así
más
normales
podemos
extraer
esa
información
vale
pues
entonces
lo
que
estáis
viendo
aquí
básicamente
es
la
implementación
que
he
hecho
para
de
una
tarea
para
para
que
funcione
con
genestruz
en
genestruz
espera
este
perdón
que
le
tengo
aquí
arriba
este
prom
entrada
en
el
cual
le
pasamos
un
título
como
podéis
ver
campeonato
mundial
de
oracesto
sub
22
masculino
de
1997
y
después
le
pasamos
el
contenido
del
artículo
en
este
caso
pues
nada
habla
sobre
el
campeonato
mundial
de
baloncesto
sub
22
masculino
del
año
97
en
el
cual
fue
fue
melburn
y
ganó
australia
puertorrico
por
desgracia
entonces
bueno
entonces
le
daremos
esto
como
como
entrada
la
lm
y
la
lm
nos
devolverá
algo
similar
a
esto
que
equipo
fue
campeón
mundial
de
baloncesto
sub
22
masculino
en
1997
lo
que
ha
hecho
la
lm
aquí
es
actuar
como
que
ella
es
el
usuario
no
y
lo
que
ha
hecho
es
generar
una
instrucción
generar
una
tarea
y
luego
si
si
vemos
a
continuación
nos
ha
devuelto
también
la
respuesta
es
a
pared
y
todo
esto
lo
ha
hecho
utilizando
la
información
de
contexto
que
nosotros
le
hemos
pasado
y
bueno
en
este
caso
es
como
muy
obvio
lo
que
ha
generado
porque
a
lo
mejor
el
artículo
tampoco
tenía
mucha
más
información
pero
si
el
artículo
es
largo
y
contiene
varios
puntos
o
varios
tópicos
pues
genera
cosas
más
más
complejas
digamos
entonces
nada
le
ha
preguntado
a
general
instrucción
de
que
quien
ganó
y
básicamente
ha
contestado
pues
que
ganó
australia
y
que
tuvo
lugar
en
melburna
y
todas
estas
cosas
que
hemos
visto
antes
vale
entonces
volvemos
a
la
implementación
de
la
tarea
perdón
una
tarea
en
distilable
básicamente
tiene
que
definir
cómo
generar
un
prom
en
este
caso
básicamente
hemos
definido
este
molde
no
que
tiene
síntasis
de
yinya
2
que
es
un
framework
para
para
construir
eso
templates
y
nada
lo
que
lo
que
va
a
recibir
son
las
columnas
que
tenemos
en
nuestro
de
hitas
que
hemos
creado
anteriormente
entonces
si
recordáis
teníamos
el
titulo
el
contenido
y
bueno
aquí
está
como
opcional
los
mensajes
queveremos
más
tarde
para
para
que
los
podemos
utilizar
cosas
importantes
una
tarea
también
tiene
que
definir
cuáles
son
las
entradas
que
necesita
el
título
el
contenido
de
los
mensajes
y
qué
es
lo
que
va
a
generar
en
este
caso
va
a
generar
una
una
conversación
que
básicamente
va
a
ser
una
una
lista
de
cadenas
de
texto
en
la
cual
los
índices
pares
serán
un
mensaje
de
un
usuario
los
los
impares
de
de
un
asistente
de
inteligencia
artificial
y
luego
lo
último
ya
es
definir
una
función
que
recibirá
la
salida
del
lm
y
que
será
capaz
de
de
eso
de
procesar
esta
salida
para
para
obtener
en
nuestro
caso
la
interacción
del
usuario
o
la
instrucción
que
ha
dado
el
usuario
que
en
este
caso
es
mentira
porque
es
el
lm
en
lo
que
está
generando
y
y
la
respuesta
que
ha
dado
el
asistente
entonces
de
esta
manera
lo
que
vamos
a
conseguir
es
utilizando
datos
que
ya
tenemos
que
sabemos
que
son
verdad
o
creemos
que
son
verdad
vamos
a
generar
instrucciones
y
y
respuestas
que
luego
podemos
utilizar
para
hacer
super
base
21
de
de
otra
lm
vale
en
este
caso
en
el
notebook
en
el
primer
notebook
que
os
compartimos
si
no
recuerdo
mal
se
utilizaba
los
infern
en
points
de
having
face
que
también
muchas
gracias
porque
para
esta
jacatón
bueno
nos
han
dado
el
pier
de
enterprise
en
la
organización
de
somos
en
el
ep
y
gracias
a
ello
podemos
utilizar
otras
lm
como
veremos
más
tarde
más
grandes
como
lama
2
de
70
billones
o
mixtral
no
confundir
con
mixtral
y
entonces
bueno
pues
muchas
gracias
también
pero
en
este
caso
y
de
manera
alternativa
pues
vamos
a
utilizar
vlm
que
básicamente
es
un
framework
para
la
inferencia
de
lm
y
bueno
en
inferencia
en
batch
ahora
mismo
es
es
la
más
rápida
es
el
framework
más
rápido
sin
sin
diferencia
al
menos
por
lo
que
yo
he
podido
probar
y
bueno
lo
que
vamos
a
hacer
es
cargar
y
en
estru
en
este
caso
lo
he
cuantizado
no
es
la
versión
original
esta
es
una
versión
cuantizada
que
he
creado
yo
de
ahí
utilizando
a
vdk
y
esto
es
porque
en
los
notebook
de
colap
gratis
tenemos
una
t4
y
el
modelo
original
no
entra
no
entra
una
t4
o
entra
muy
justo
y
en
cuenta
como
se
inferenciaba
nos
va
a
dar
un
error
entonces
con
a
vdk
si
que
funciona
bastante
bien
el
modelo
y
bueno
una
t4
da
de
sobra
para
hacerlo
entonces
genial
pero
bueno
si
tenéis
una
gpu
más
contáis
con
una
gpu
más
potente
con
más
vram
pues
os
recomiendo
que
utilicéis
directamente
el
original
que
es
no
result
y
barra
en
estru
7b
vale
pues
luego
como
he
dicho
antes
tenemos
la
task
y
tenemos
la
tarea
y
la
vlm
entonces
creamos
una
task
y
básicamente
como
system
prompt
que
no
es
un
system
prompt
como
tal
porque
lo
estamos
colocando
aquí
entre
medias
pero
es
un
poco
el
hack
que
he
hecho
para
poder
implementarlo
básicamente
le
estamos
diciendo
la
siguiente
interacción
es
entre
un
usuario
que
solo
sabe
español
tenemos
que
insistirle
un
poco
en
que
solo
sabe
español
y
que
el
asistente
también
es
solo
sabe
español
o
que
va
a
contestar
en
español
porque
si
no
nos
va
a
generar
texto
en
inglés
mistral
7b
que
es
el
modelo
pre
entrenado
por
el
cual
se
ha
hecho
y
del
cual
se
ha
hecho
fin
tuning
para
generar
y
en
estru
sí
que
funciona
bastante
bien
en
español
pero
sí
que
es
verdad
que
en
algunos
casos
bueno
como
ha
dicho
maría
pues
tiene
estas
respuestas
un
poco
de
español
muy
neutro
no
y
también
hay
veces
pues
que
no
nos
hace
caso
y
también
nos
va
nos
va
a
responder
en
inglés
entonces
bueno
es
importante
tener
una
fase
de
verificación
después
de
generar
data
set
como
veremos
después
y
vale
ahora
vamos
a
generar
a
crear
la
lm
en
la
básicamente
tenemos
esta
clase
de
vlm
en
distilable
que
es
un
un
wrapper
un
envoltorio
de
la
clase
original
de
de
el
vlm
entonces
le
pasamos
el
modelo
que
hemos
cargado
la
tarea
que
queremos
que
realice
y
también
le
decimos
pues
que
queremos
que
que
genere
512
nuevos
tokens
como
máximo
le
ponemos
una
temperatura
así
medio
medio
alta
no
porque
queremos
que
tenga
un
poco
de
variabilidad
en
las
respuestas
que
genera
y
luego
bueno
le
pasamos
un
prompt
en
facción
que
estotambién
es
un
poco
hack
que
he
tenido
que
hacer
el
implementación
para
que
funcione
así
que
nada
básicamente
la
función
recibe
el
prompt
y
devuelve
el
prompt
es
decir
no
hace
nada
de
expedición
vale
y
luego
lo
que
hacemos
es
instanciar
una
pipeline
una
pipeline
que
tiene
un
generador
que
en
este
caso
es
esta
lm
y
en
strut
con
la
tarea
de
y
en
strut
vale
y
bueno
entre
medias
nada
seleccionamos
unas
cuantas
columnas
del
data
set
que
hemos
cargado
y
nada
añadimos
una
columna
de
mensajes
en
este
caso
con
mensajes
vacíos
y
ya
veremos
después
por
qué
y
nada
creamos
esta
función
para
para
arrancar
la
generación
del
dataset
y
generamos
el
dataset
y
como
podéis
ver
aquí
pues
nada
distilado
el
comenzará
a
a
generar
datos
utilizando
la
lm
y
la
tarea
en
batch
porque
le
hemos
puesto
que
lo
haga
con
un
batch
de
tamaño
50
y
el
data
se
que
hemos
creado
tiene
más
o
menos
500
filas
pues
nada
en
10
batches
lo
tiene
y
esto
bueno
la
verdad
es
que
es
bastante
rápido
creo
que
hay
10
9
minutos
y
la
verdad
que
bueno
en
9
minutos
500
instrucciones
y
500
respuestas
está
bastante
bien
vale
entonces
el
dataset
que
nos
devuelve
la
pipeline
de
distilable
es
un
dataset
del
hub
por
lo
que
podemos
perfectamente
subirlo
al
hub
in
face
hub
y
nada
si
lo
subís
no
se
diréis
como
ha
dicho
María
de
documentarlo
todo
y
y
nada
y
antes
de
subirlo
también
comprobar
comprobar
lo
que
sé
lo
que
ha
generado
la
lm
y
bueno
para
ello
pues
lo
que
podemos
utilizar
es
argila
no
entonces
para
subir
el
dataset
que
hemos
generado
vamos
a
tener
que
hacer
un
poquito
de
post
procesamiento
en
este
caso
nada
vamos
a
decirle
que
la
columna
de
conversación
que
es
la
que
generaba
la
tarea
de
y
en
estru
nos
la
ponga
en
un
formato
de
lista
no
en
la
cual
tenemos
diccionarios
y
el
diccionario
básicamente
contiene
una
clave
que
es
rol
que
es
usuario
y
o
asistente
y
un
mensaje
que
es
el
mensaje
no
vale
entonces
con
esto
ya
lo
que
podemos
hacer
es
subirlo
a
argila
vale
cómo
desplega
más
argila
pues
la
solución
más
fácil
para
desplegar
argila
es
venirse
aquí
al
hub
en
face
hub
venir
aquí
le
dais
a
nuevo
espacio
y
en
docker
aquí
le
dais
a
argila
y
con
esto
nada
en
dos
minutillos
tenéis
un
un
espacio
de
hub
in
face
hub
con
argila
desplegado
que
podéis
utilizar
continuó
vale
bueno
importamos
argila
y
nos
conectamos
al
espacio
que
hemos
creado
y
luego
bueno
hacemos
un
poquito
de
esto
también
básicamente
es
una
función
para
para
formatear
los
mensajes
que
nos
ha
dado
la
lm
como
si
fuese
un
chat
algo
así
como
lo
que
tienen
en
el
hub
in
face
chat
y
hoy
y
nada
creamos
un
dataset
de
de
argila
que
básicamente
pues
va
a
tener
en
tres
campos
de
texto
el
título
y
el
contenido
que
es
lo
que
hemos
la
lm
ha
utilizado
como
contesta
para
generar
las
instrucciones
y
las
respuestas
y
y
bueno
la
conversación
que
se
ha
generado
y
luego
vamos
a
definir
unas
unas
preguntas
para
darle
una
puntuación
a
la
conversación
generada
y
también
le
vamos
a
vamos
a
preguntar
al
al
humano
no
que
si
que
si
la
que
se
ha
utilizado
la
lm
ha
utilizado
la
información
de
contexto
para
para
la
conversación
generada
porque
puede
ser
que
no
la
haya
utilizado
y
en
ese
caso
puede
haber
cometido
errores
entonces
bueno
podemos
luego
filtrar
también
estas
filas
entonces
bueno
esto
es
un
poco
código
repetitivo
para
subir
el
el
dataset
de
argila
y
y
crearlo
y
bueno
básicamente
lo
que
hacemos
es
un
puesto
de
argila
y
si
venimos
aquí
tenemos
el
el
dataset
que
nos
ha
generado
no
tenemos
el
título
el
contenido
del
artículo
y
tenemos
también
lo
que
nos
ha
generado
la
lm
en
este
caso
bueno
la
interacción
que
hice
el
usuario
no
se
pronunció
este
nombre
así
que
me
vais
a
ordenar
compití
la
década
de
1960
ganó
una
medalla
de
bronce
la
competición
individual
colina
grande
que
medalla
ganó
que
yo
no
se
pronunció
y
bueno
la
lm
nos
ha
contestado
pues
ganó
una
medalla
de
bronce
la
competición
individual
de
colina
grande
y
como
podéis
ver
pues
ha
generado
un
poco
de
texto
en
inglés
no
entonces
es
por
eso
que
también
es
muy
importante
que
no
confíeis
en
lo
que
esciegamente
lo
que
ha
generado
la
lm
y
que
subáis
las
cosas
también
argila
para
para
revisarlas
manualmente
o
utilizando
otras
heurísticas
para
detectarse
y
texto
en
inglés
o
bueno
otras
alternativas
entonces
bueno
esto
le
vamos
a
poner
que
una
puntuación
de
está
medio
bien
pero
claro
luego
ha
puesto
el
inglés
entonces
le
vas
a
poner
un
casi
aprobado
o
suspensos
total
la
verdad
no
queramos
inglés
y
bueno
sí
que
parece
que
ha
utilizado
la
información
de
contexto
no
entonces
la
decimos
que
sí
y
nada
y
enviamos
esta
información
para
luego
es
que
alguien
la
procese
y
utilizando
la
etiqueta
lo
que
ha
hecho
el
humano
construir
un
data
set
una
segunda
versión
del
de
y
ta
set
ya
más
como
se
suele
decir
en
inglés
con
golden
labels
es
decir
con
labels
que
ya
son
se
saben
ciertamente
pues
que
está
que
está
bien
vale
entonces
me
quedan
cinco
minutos
así
que
me
voy
a
dar
pricita
vale
como
se
he
dicho
antes
por
ahí
en
el
data
set
del
principio
teníamos
una
columna
mensajes
no
que
al
principio
estaba
vacía
y
porque
estaba
vacía
bueno
pues
la
idea
que
os
doy
también
para
para
este
hackath
es
que
podéis
ejecutar
una
segunda
iteración
o
incluso
una
tercera
iteración
utilizando
este
modelo
para
para
generar
eso
conversaciones
más
largas
y
también
pues
entrenar
una
ila
m
que
sea
también
mejor
en
español
que
sea
mejor
para
para
chat
no
que
no
sea
sólo
te
dé
una
instrucción
me
das
una
respuesta
y
a
partir
de
ahí
ya
todo
mal
no
que
sea
que
tengamos
datos
con
varias
e
bueno
varias
interacciones
de
chat
y
y
poder
reentren
una
lm
en
español
eso
que
sea
mejor
para
chat
entonces
bueno
lo
que
hemos
hecho
aquí
un
poco
más
arriba
es
generar
este
data
set
iteración
1
y
esto
si
venimos
aquí
y
hacemos
mesa
y
0
pues
como
podemos
ver
tiene
el
mensaje
del
usuario
y
el
mensaje
bueno
la
instrucción
del
usuario
y
y
la
respuesta
del
asistente
entonces
lo
que
vamos
a
hacer
ahora
o
lo
que
va
a
hacer
la
tarea
de
genestru
task
es
que
va
a
incluir
también
esta
información
entonces
lo
que
va
a
hacer
el
lm
ya
es
generar
una
instrucción
o
una
una
instrucción
del
usuario
y
una
respuesta
del
usuario
pero
ya
para
un
segundo
turno
entonces
bueno
básicamente
volvemos
a
ejecutar
esto
que
va
a
hacer
lo
mismo
que
arriba
y
si
venimos
a
la
tarea
aquí
porque
también
hemos
subido
a
la
tenemos
una
segunda
iteración
en
la
que
ya
tenemos
como
podéis
ver
pues
es
un
segundo
turno
vale
entonces
pues
de
esa
idea
por
si
la
queréis
utilizar
y
compartir
el
notebook
también
y
bueno
muy
rápidamente
voy
a
contarla
del
dp
que
no
me
quiero
meter
en
la
en
la
charla
de
mano
vale
dp
ahora
no
recordemos
que
es
este
de
tasset
que
básicamente
tenemos
una
instrucción
preguntamos
a
una
lm
varias
veces
o
a
distintas
lm
que
nos
genera
una
respuesta
y
etiquetamos
cuál
es
la
mejor
y
con
estas
datos
de
preferencia
entrenamos
otra
lm
para
que
se
alinea
se
alinea
eso
entonces
bueno
muy
rápidamente
vale
lo
que
voy
a
hacer
dime
tranqui
no
pides
o
sea
mejor
que
lo
expliques
bien
y
empezamos
unos
minutos
más
tarde
el
de
mano
yo
creo
porque
casi
todo
el
mundo
que
vaya
el
de
mano
está
aquí
ahora
o
sea
que
vale
vale
perfecto
entonces
o
sea
no
te
prisa
pero
tampoco
te
saltes
cosas
importantes
no
te
preocupes
vale
gracias
nada
pues
lo
que
vamos
a
hacer
es
un
primer
paso
para
llamar
a
la
pipeline
de
distilable
es
exactamente
igual
que
la
de
arriba
lo
que
pasa
es
que
esta
vez
le
vamos
a
decir
que
genere
que
para
una
instrucción
genere
bueno
que
para
una
instrucción
que
para
una
fila
genere
otras
tres
filas
por
así
decirlo
no
entonces
lo
que
vamos
a
conseguir
es
varias
instrucciones
y
varias
varias
respuestas
y
luego
lo
que
vamos
a
hacer
en
una
segunda
fase
es
crear
una
tarea
de
ultra
feedback
no
que
es
básicamente
la
la
tarea
o
el
template
o
el
prompt
template
que
utilizaron
la
gente
de
opn
bmb
para
utilizar
chag
ppt
para
para
eso
para
etiquetar
dada
una
una
instrucción
de
entrada
y
varias
respuestas
pues
lo
que
la
lm
va
a
hacer
con
esta
tarea
es
decir
cuál
es
la
mejor
de
las
tres
respuestas
para
esa
instrucción
y
también
nos
va
adar
un
una
explicación
entonces
nada
vamos
a
generar
las
respuestas
como
hemos
hecho
arriba
para
el
data
set
de
super
by
fine
tuning
y
después
vamos
a
hacer
un
poco
de
formateo
de
la
salida
para
que
la
podamos
dar
a
otra
feedback
porque
requiere
las
columnas
de
input
y
generación
en
el
data
set
de
entrada
como
podéis
ver
aquí
entonces
input
por
ejemplo
a
cero
esta
es
una
instrucción
y
luego
si
me
vengo
y
imprimo
en
erasión
0
pero
en
erasión
0
tengo
la
primera
respuesta
que
se
ha
dado
para
esta
instrucción
si
le
doy
el
uno
tengo
la
la
segunda
que
se
ha
dado
y
si
le
pongo
el
dos
pues
tengo
la
tercera
respuesta
que
se
ha
dado
para
esta
instrucción
vale
entonces
para
utilizar
model
tareas
como
ultra
feedback
si
que
os
recomiendo
de
utilizar
modelos
que
sean
más
grandes
no
que
tengan
un
poquito
más
de
de
lugar
o
de
o
que
hayan
aprendido
más
cosas
y
que
puedan
hacer
esta
tarea
con
más
facilidad
entonces
en
este
caso
sí
que
decide
utilizar
los
infren
en
points
de
haguin
facebook
y
le
estoy
diciendo
que
utilice
mixtral
que
es
un
modelo
también
de
mixtral
pero
un
poquito
más
potente
y
grande
para
hacer
este
etiquetado
con
otra
feedback
y
nada
eso
os
recuerdo
que
tenéis
que
estar
en
la
organización
de
somos
en
el
depen
haguin
facebook
para
poder
utilizar
este
modelo
de
manera
gratuita
y
nada
si
estáis
dentro
pues
veréis
este
mensaje
de
usings
server
les
infern
en
point
lo
que
significa
que
todo
ok
vale
entonces
ejecutamos
la
pipeline
utilizando
esta
lm
como
etiquetador
y
generamos
el
data
set
para
depio
vale
en
este
caso
como
la
tarea
está
bien
integrada
en
distilable
bueno
podemos
empujar
el
data
set
al
haguin
facebook
y
también
la
podemos
subir
a
argila
de
manera
automática
y
lo
bueno
de
esto
es
que
este
método
va
a
generar
también
metadatos
de
manera
automática
y
también
vectores
que
podéis
utilizar
para
para
hacer
búsqueda
por
similaridad
en
la
interfaz
de
argila
entonces
nada
volvemos
a
subir
el
data
set
a
argila
y
si
volvemos
aquí
y
venimos
aquí
pues
nada
tenemos
un
data
set
un
poco
más
distinto
en
el
que
tenemos
un
campo
que
es
el
input
donde
está
la
isla
de
man
on
y
y
tres
generaciones
y
bueno
y
como
podéis
ver
aquí
tenemos
unas
cuantas
preguntas
que
las
podrías
haber
puesto
en
español
pero
claro
es
que
se
ha
generado
automáticamente
y
y
bueno
aunque
los
podemos
cambiar
podéis
venir
aquí
y
en
cuestiones
ponerle
en
español
no
lo
voy
a
hacer
ahora
que
si
no
no
era
tiempo
pero
bueno
básicamente
mixtral
lo
que
ha
hecho
es
coger
la
instrucción
y
las
generaciones
y
les
ha
puesto
un
score
una
puntuación
y
nosotros
utilizando
la
característica
que
tiene
argila
para
para
añadir
sugerencias
pues
hemos
autorrellenado
estas
preguntas
que
tenemos
aquí
a
la
derecha
entonces
cuál
es
la
puntuación
que
se
ha
dado
la
generación
1
3
cuál
es
la
que
se
ha
dado
a
la
generación
2
5
y
cuál
es
la
que
se
ha
dado
la
generación
3
4
aún
así
podemos
leerlo
y
comprobar
que
esto
está
bien
si
vemos
que
no
está
mal
o
que
está
mal
y
que
eso
que
la
etiqueta
normal
pues
podemos
venir
aquí
y
ponerlo
en
2
en
este
caso
vamos
a
dejarle
el
5
lo
que
significa
que
esta
generación
2
sería
la
respuesta
elegida
para
esta
instrucción
y
luego
podemos
bien
o
elegir
esta
generación
1
o
generación
3
como
la
respuesta
rechazada
y
nada
aquí
también
tenemos
cuál
es
la
la
explicación
del
de
la
puntuación
que
ha
dado
la
lm
entonces
bueno
podemos
pasar
y
nada
ir
etiquetando
y
reisando
lo
que
las
bueno
el
etiquetado
automático
que
ha
hecho
un
mixtral
vale
entonces
luego
cosas
más
interesantes
a
lo
mejor
queréis
encontrar
instrucciones
que
sean
similar
a
esta
pues
lo
que
podéis
hacer
es
clicar
aquí
en
o
a
las
generaciones
porque
bueno
a
lo
mejor
una
generación
ha
sido
muy
mala
y
muy
característica
entonces
podemos
buscar
generaciones
similares
a
eso
pero
en
este
caso
vamos
a
buscar
filas
similares
al
input
entonces
distilé
y
vola
automáticamente
cuando
hemos
hecho
la
lectura
gila
ha
generado
también
unos
vectores
para
hacer
búsqueda
por
similaridad
y
ahora
pues
desde
la
yuai
podemos
hacer
esto
no
fine
y
nosva
a
encontrar
uno
que
sea
similar
en
este
caso
pues
el
modelo
que
habrá
utilizado
es
en
inglés
entonces
la
gente
el
vector
que
ha
generado
no
es
muy
bueno
y
nos
está
diciendo
que
esto
es
un
85
por
ciento
similar
pero
bueno
entre
comillas
y
bueno
luego
que
más
podemos
hacer
para
filtrar
rápidamente
o
para
buscar
récords
en
argila
podemos
utilizar
los
filtros
y
por
ejemplo
queremos
ver
las
generaciones
bueno
las
instrucciones
más
largas
por
venimos
aquí
le
decimos
filtrame
las
que
las
que
tengan
entre
389
493
caracteres
y
ya
de
esta
manera
nos
las
va
a
filtrar
y
vamos
a
poder
ver
las
las
instrucciones
más
largas
que
más
bueno
también
lo
mismo
para
la
longitud
de
las
generaciones
y
bueno
también
una
vez
que
hemos
etiquetado
también
podemos
ver
podemos
filtrar
por
la
por
la
puntuación
que
hemos
dado
por
ejemplo
en
este
caso
no
hemos
dado
ninguno
entonces
no
hay
y
luego
también
podemos
filtrar
por
las
sugerencias
de
mixtral
por
ejemplo
podemos
decirle
pues
el
escore
esto
está
regular
e
dame
las
que
tienen
nada
un
escor
entre
0
y
y
0
69
vale
entonces
nada
aquí
más
o
menos
bueno
más
o
menos
acabo
y
nada
espero
que
que
os
haya
sido
de
ayuda
y
y
por
la
disfrenal
pues
nada
muchísimos
datos
en
español
para
entrenar
el
lm
es
que
nos
hacen
falta
sin
totalmente
nos
hacen
falta
muchas
gracias
a
abril
la
verdad
súper
súper
completo
el
taller
también
con
muchísimas
gestiones
y
tal
motivando
obviamente
con
nuestro
caso
de
éxito
que
fue
notus
y
después
el
el
notebook
lo
tiene
todo
el
mundo
a
que
después
me
lo
pasa
si
es
igual
repó
lo
comparto
en
discord
lo
subo
a
la
página
web
así
cada
persona
como
lo
que
estáis
buscando
o
sea
utilizando
como
como
sitio
de
referencia
para
encontrar
la
información
del
jacatón
lo
tendréis
ahí
no
sé
si
hay
alguna
pregunta
así
un
poco
rapidita
y
si
no
igualmente
deciros
que
el
equipo
de
argila
bueno
como
todos
los
años
son
súper
simpáticos
o
sea
que
están
en
discord
y
también
os
podemos
o
sea
les
podemos
reenviar
un
par
de
preguntas
si
tenéis
por
ahí
vale
te
voy
a
hacer
una
porque
lleva
ahí
mucho
rato
entonces
creo
que
se
lo
merece
dicen
aún
modra
pre
entrenado
se
le
puede
agregar
nuevo
conocimiento
que
no
haya
estado
en
el
corpus
inicial
yo
creo
que
además
es
bueno
es
decir
un
proceso
no
es
vervisático
y
propósito
no
sea
cual
instrucción
pues
esta
es
muy
buena
pregunta
y
de
hecho
bueno
gente
del
del
barcelona
super
compitio
en
center
ya
ya
hicieron
esto
y
sacaron
águila
7b
que
básicamente
pues
es
una
continuación
del
pre
entrenamiento
de
falcon
7
y
entonces
sí
que
es
algo
que
no
es
sencillo
de
hacer
no
tiene
cierta
complejidad
y
bueno
una
de
las
primeras
cosas
que
hay
que
hacer
también
no
es
cambiar
el
el
toquenizador
no
que
es
la
pieza
que
dado
unos
unas
palabras
no
nos
las
transforma
en
una
en
bueno
primero
nos
los
nos
corta
las
palabras
en
trocitos
no
nos
transforma
en
tokens
y
esas
tokens
les
asigna
un
idea
y
porque
es
importante
primero
cambiar
el
toquenizador
para
tener
uno
que
sea
más
especializada
de
español
porque
los
que
están
entrenados
con
datos
sobre
todo
del
inglés
bueno
pues
las
palabras
en
español
las
dividen
en
en
más
trocitos
no
entonces
al
final
es
peor
entonces
bueno
lo
que
hicieron
este
grupo
del
bsc
es
eso
cambiar
el
toquenizador
para
entrenar
uno
que
fuera
con
datos
primariamente
del
español
y
del
catalán
y
continúa
el
pre
entrenamiento
de
falcon
7
y
sí
que
consiguieron
resultados
bastante
buenas
pero
repito
es
un
proceso
complejo
y
que
también
requiere
pues
tener
muchas
gps
como
tienen
en
el
bar
de
la
súper
computing
si
de
hecho
estaba
creando
ahí
una
una
colección
de
modelos
que
tenemos
así
pre
entrenados
y
también
es
de
para
instrucciones
en
español
que
acabo
de
compartir
así
que
bueno
ahí
más
pero
muy
bien
la
respuesta
y
otra
pregunta
que
vamos
a
hacer
es
que
es
más
de
argila
si
es
una
forma
de
cambiar
la
respuesta
dentro
de
la
plataforma
si
yo
en
este
caso
no
he
creado
una
pregunta
de
texto
pero
tú
en
tu
data
set
puedes
crear
una
pregunta
de
texto
que
sea
por
ejemplo
si
está
malla
respuesta
que
ha
dado
la
lm
corrígela
y
la
y
la
puede
lo
que
puedes
hacer
es
bien
copiar
la
respuesta
modificar
las
partes
que
que
están
malos
reescribirla
completamente
que
es
de
hecho
lo
que
estamos
haciendo
en
el
en
la
otra
parte
de
jacatón
para
para
esa
para
traducir
mejor
los
los
datos
que
hay
para
para
hacer
pens
marquín
del
elense
al
español
tal
cual
lo
dejo
aquí
o
sea
podéis
entrar
en
hf.co
o
sea
la
hainfase
vale
la
organización
de
somos
en
el
epe
y
está
ahí
el
espéis
y
efectivamente
es
lo
que
dice
gavriel
en
plan
ahí
si
está
mal
traducido
si
nos
ha
traducido
para
nada
o
lo
que
sea
podéis
sobre
escribir
digamos
mejorar
la
la
traducción
entonces
sí
que
se
puede
genial
pues
hasta
aquí
muchísimas
gracias
gavriel
creo
que
le
ha
encantado
a
todo
el
mundo
se
ha
quedado
todo
el
mundo
hasta
el
final
cosa
que
siempre
es
buena
señal
o
sea
que
muchísimas
gracias
y
ya
estará
próxima
gracias
a
vosotros
a
lo
mejor | Gabriel @Argilla |
Taller: Entrenamiento de LLMs con datos de calidad, Manu Romero @MAISA | #Somos600M | En
el
mundo
continuamos
con
los
talleres
de
nuestro
hackathon,
somos
600M.
Como
sabéis,
nuestros
objetivos
son
crear
recursos
diversos,
abiertos
y
de
calidad
de
procesamiento
del
lenguaje
natural
en
español.
Ya
hemos
tenido
un
taller
que
acaba
de
terminar.
Super
interesante
con
Gabriel
de
Agila,
es
ingeniero
de
Machine
Learning
allí
y
nos
ha
explicado
cómo
crear
data
sets
de
calidad
utilizando
Agila
y
Distill
Label,
que
son
los
herramientas
que
han
desarrollado.
Y
por
el
principio
nos
ha
enseñado
su
caso
de
uso,
el
modelo
Notus.
O
sea,
su
caso
de
uso,
sí,
que
tuvieron
mucho,
mucho
éxito,
caso
de
éxito,
eso,
del
modelo
Notus.
Y
después
nos
ha
enseñado
cómo
podemos
utilizar
estas
herramientas
para
desarrollar
nuestros
propios
data
sets
y
después
de
utilizarnos
para
entrenar
nuestros
LLMS.
Ahora
vamos
a
continuar
con
la
importancia
de
la
calidad
de
los
bases
de
datos
con
Manu
Romero,
a
quien
le
doy
la
bienvenida.
Bueno,
casi
todo
el
mundo
aquí
ya
le
conocerá,
ha
dado
un
montón
de
charlas
para
somos
un
LPA
y
también
en
todo
lo
que
es
el
ecosistema
de
Hi-In
Face
le
conocemos
mucho
porque
ha
entrenado
un
montón
de
modelos.
Creo
que
ya
oficialmente
has
llegado
al
500,
Manu.
-Más
cierto,
de
seguro
más
cierto.
-Incredible.
Entonces,
bueno,
obviamente
es
una
persona
muy
indicada
para
enseñarnos
cómo
hacer,
bueno,
entrenar
estos
modelos
y
también
a
la
que
yo
creo
que
vamos
a
hacerle
caso,
sí,
todavía
nos
ha
quedado
claro
que
necesitamos
data
sets
de
calidad
para
entrenar
nuestros
modelos.
Entonces,
bueno,
bienvenido,
Manu.
Muchísimas
gracias
por
preparar
este
taller
y
comparto
tu
collab
y
todo
tuyo.
Para
la
gente
que
no
estáis
viendo
en
directo,
podéis
preguntar
las
preguntas
en
el
chat
y
yo
al
final
del
taller
se
las
voy
leyendo
a
Manu.
Vale.
Adelante,
todo
tuyo.
-Vale,
pues,
bueno,
no
sé
si
veis
bien
el
cola
o
quieres
que
haga
un
poquito
de
zoom.
-Igual,
un
poquito
más.
-Sí,
así,
una
cosa
así.
-Un
poquito
más.
-Venga.
-Ay,
yo
creo,
para
que
vean
bien
el
código
y
tal.
-Vale,
si
no
me
interrumpen,
María,
y
vamos,
voy
haciendo
zoom.
Vale,
bueno,
pues,
cuando
hablaba
con
María
un
poco
de
algo
muy
importante,
¿no?
Que
está
tomando
mucha
relevancia
en
el
mundo
del
NLLP
o
en
concreto
en
el
mundo
de
los
LLMs,
pues
consideramos
que
ya
tocaba
un
poco
crear
igual
un
ejemplo
en
tu
N
de
principio
a
fin
de
cómo
la
calidad
de
los
datos
sobre
la
cual
entramos
en
nuestro
modelo,
ya
sea
fine
tuning
o
incluso
pretraining,
pues
afecta
en
la
calidad
también
del
modelo
resultante.
Al
final,
¿no?
Hay
una
ley,
¿no?
En
programación
se
dice
mucho
de
"Gerbichin,
Gerbichout",
¿no?
Que
es
como
si
insertamos
basura
o
obtenemos
basura
y
los
LLMs
no
son
la
excepción,
¿no?
Todo
es
creo
que
como
modelos
como,
por
ejemplo,
FI2
de
Niklosov,
que
tú
el
mundo
lo
conocerás
o
stable
LLM,
la
versión
2
también,
que
son
modelos
más
pequeños,
pero
que
consiguen
un
rendimiento
bastante
importante
gracias
a
entrenar
en
datos
sintéticos
de
alta
calidad,
especialmente
el
libro
de
texto,
¿no?
Es
una
como
algo
muy
natural,
¿no?
De
cómo
nos
enseñan
nosotros,
¿no?
Nos
enseñamos
cuando
íbamos
a
la
escuela,
al
colegio
o
al
instituto,
¿no?
Basado
en
el
libro
de
texto,
pues
generando
esos
libros,
porque
lamentablemente
no
hay
mucho
digitalizado
de
ese
estilo
y
menos
en
español,
digamos,
que
se
consigue,
¿no?
Datos
de
calidad
que
como
resultado
dan
modelos
que
luego
rinden
muy
bien
en
los
Benzbar
y
no
es
que
lo
diga
yo,
sino
que
ahí
están
modelos
como
FI2,
de
los
billones
de
parámetros,
que
se
acerca
a
algún
modelo
de
7
billones,
¿no?
Mucho
más
grande.
Pues,
bueno,
vamos
a
ver
un
poco
eso,
¿no?
Es
ejemplo
de
Entwenn,
en
el
que
veremos
también
cómo
hacerle
el
FI2
y
no
al
modelo,
¿no?
Si
alguien
quiere
reproducir
el
experimento
entero.
Y,
bueno,
como
dice
María,
yo
creo
que
conocerme,
me
conocéis
todo
ya,
pero,
bueno,
un
poco
acerca
de
mí.
Ahora
estoy
trabajando
de
CSO
en
Maesha,
que
es
como
se
han
renombrado
la
antigua
Kiribren.
Y,
bueno,
colaboró
bastante
con
Javi
and
Faiths.
Hoy,como
ha
dicho
María,
pues,
de
las
personas
que
más
modelos
se
ha
aportado
al
Javno,
algunos
de
ellos
con
muchísimas
descarga
al
me,
20
millones
de
descarga,
el
bajador
de
Javi
and
Faiths,
también,
participé
en
el
proyecto
de
BigSci
and
the
Big
Code,
que
era
como
una
especie
de
intento
de
hacer
un
GPT3
abierto
a
todo
el
mundo
y
un
co-pilot,
¿no?
Para
código
también
abierto.
Y,
bueno,
antes
de
esto,
estaba
en
narrativa,
también
como
ingeniero
de
NLP,
con
María,
cofundé,
somos
NLP,
y
mi
formación
es
Computer
Science,
hago
ingeniería
informática
y
hasta
que
me
metí
hace,
pues,
no
sé,
ya
cinco
o
seis
años,
¿no?
En
esto
de
la
día,
en
concreto,
de
los
modelos
de
lenguaje,
pues,
ha
hecho
bastante
bacan.
Y,
bueno,
pasemos,
no
directamente,
a
ver
un
poco
los
beneficios,
¿no?
de
entrenar,
porque
aunque
lo
que
vamos
a
ver
es
un
ejemplo
de
fine-tuning
realmente
en
el
pre-training
también,
en
la
fase,
estátos
fases,
¿no?
Que
tienen
los
modelos
de
lenguaje,
pre-training
y
post-training,
pues,
tienen
la
de
pre-training,
también
es
muy
importante,
igual
de
importante
o
más,
que
tengamos
esos
datos
de
calidad,
¿no?
Que
ese
corpus
sea
de
calidad.
Entonces,
¿qué
beneficios
tiene
de
eso?
Pues,
tiene
beneficios
como
es
alignment,
¿no?
O
alineación
y
adquisición
de
conocimiento,
ya
que
estos
datos
de
alta
calidad,
pues
aseguran
que
el
modelo
aprende
información
precisa,
de
ahí
que
se
utilicen
muchos
libros
de
texto,
últimamente,
comportamiento
apropiado,
¿no?
Qué
es
crucial
para
que
el
modelo,
pues,
pues
se
alinea
al
final
con
objetivos
humanos
y
adquiera
conocimiento
durante
ese
pre-training.
Con
ello
también
conseguimos
que
tenga
un
mayor
rendimiento
y
capacidad
de
generalización,
¿no?
Entrenas
con
datos
de
mala
o
baja
calidad,
puede
afectar
muy
negativamente
al
rendimiento
de
esto.
Mientras
con
datos
de
alta
calidad,
pues,
ayudan,
por
ejemplo,
a
reducir
seco
y
mejoran
la
capacidad
de
fiabilidad
y
capacidad
de
generalización
que
tiene
el
modelo,
que
acerna
en
lo
que
importa,
¿no?
¿Cómo
devuelve
generalizando
ese
modelo?
¿Respondiendo
o
enfrentando
ese
escenario
que
no
ha
visto,
¿no?,
en
su
dato
de
entrenamiento?
El
modelo
de
lenguaje
y,
en
general,
todos
los
modelos
de
día
se
entrenan
con
ese
propósito,
¿no?
Con
que
rindan
bien
en
casos
que
no
han
visto
durante
el
entrenamiento,
porque
en
casos
que
han
visto
durante
el
entrenamiento,
ya
suponemos
que
rindan
bien.
Y
si
le
preguntamos
por
las
mismas
cosas
que
ha
visto,
seguramente
se
la
sepa,
pero
de
memoria,
¿no?
Tenéis
en
cuenta
que
estamos
hablando
de
modelos
de
billones
de
parámetros,
con
lo
cual,
a
la
vez,
es
probable
que
memoricen
cierto
contenido.
Es
bueno
también
que
tengamos
datos
de
calidad
de
cada
la
eficiencia
y
escalabilidad,
¿no?
La
calidad
de
los
datos
afecta
significativamente
a
la
eficiencia
del
proceso
de
entrenamiento.
Datos
de
alta
calidad
permiten
una
escalabilidad
más
eficiente
de
los
parámetros
del
modelo
y
pueden
conducir
un
modelo
más
eficiente
también
en
términos
de
cómputo.
Esto
quiere
decir
que
si
tengo
muchos
datos,
pero
muy
noisy,
o
contienen
información
que
no
aporta
mucho
valor
o
información
que
realmente
no
le
hace
al
modelo
aprender
nada
nuevo,
pues
seguramente
el
data
es
muy
grande,
llevará
más
tiempo
que
el
entrenamiento,
que
el
modelo
vea
todo
ese
texto
de
manera
completa,
pero
al
final
no
tiene
por
qué
tener
ese
modelo
que
obtengamos,
mayor
rendimiento
que
un
modelo
que
ha
visto
menos
tokens
o
que
el
data
se
den
más
pequeño,
es
un
data
set
más
condensado
en
datos
que
realmente
aportan
información,
como
son,
me
repito
una
vez
más,
no,
los
libros
de
texto.
También
un
córpulte
de
calidad
va
en
pro
de
la
diversidad
de
los
datos
y
experiencia
en
el
dominio,
¿no?
Un
conjunto
de
datos
diversos
y
de
alta
calidad,
pues,
permitan
los
LNN
a
los
LNM,
perdón,
adquirir
un
amplio
rango
de
conocimiento
y
demostrar
fuertes
habilidades
de
generalización
en
varios
dominios,
¿no?
Los
conjuntos
de
datos
especializados,
pues,
tambiénpueden
proporcionar
los
LNN
habilidades
específicas
para
resolver
problemas.
Luego,
desde
el
punto
de
vista
del
preprocesamiento
y
gestión
de
datos,
pues,
la
gestión
efectiva
de
datos,
no
incluyendo
estrategias
de
procesamiento
como
la
de
duplicación,
filtrados
de
calidad,
filtrados
por
toxicidad,
pues,
al
final,
acaba
siendo
esencial
para
construir
datas
adecuadas,
¿no?
Y
este
proceso,
especialmente
el
preprocesing
que
le
llamamos,
influye
especialmente
en
la
capacidad
del
modelo
para
aprender
de
manera
más
eficiente
y
desempeñar
nuevas
tareas.
Luego,
futuras
direcciones
y
desafíos,
en
este
área
de
crear
data
set
de
calidad,
pues,
hay
un
enfoque
creciente,
como
he
comentado,
en
mejores
conjuntos
de
datos
para
el
pre-training,
en
lugar
de
entrenar
con
todos
los
datos
disponibles.
El
equilibrio
entre
la
calidad
y
la
cantidad
de
los
datos
sigue
siendo
un
área
de
investigación
activa
a
día
de
hoy.
Los
datos
de
alta
calidad,
pues,
pueden
permitir
entrenar
modelos
más
pequeños
que
desempeñan
de
manera
comparable
a
modelos
grandes,
como
estamos
comentando,
el
caso
de
FII,
de
Stable
LM2,
de
Stability.
Pero
esto
también
implica
que
existen
esos
riesgos
como
sobreajuste,
¿no?
Al
final,
que
overfitting,
que
se
conoce
el
término,
como
que
aprendan
de
memoria.
Y
los
sensibles
que
puedan
ser
al
pronto.
Bueno,
visto
un
poco
esto
de
la
que
sería,
por
así
decirlo,
como
la
teoría.
En
esa
fase
de
pre-training,
sin
ir
mucho
más
lejos,
el
viernes
pasado,
creo,
que
aparecía
el
paper
de
Yi.
Yi
es
una
familia
de
LLMS
de
6
y
34
billones
de
parámetros
entrenado
en
un
corpus
paralelo
de
inglés
y
chino.
Y
bueno,
es
uno
de
los
modelos
que
rinde
estado
del
arte,
¿no?
Entonces,
salió
ese
paper
y
creo
que
analizar
un
poco
por
encima
qué
han
hecho
ellos
para
adquirir
ese
data
set
de
calidad,
pues,
viene
muy
bien
con
respecto
a
lo
que
queremos
ver,
¿no?
De
la
importancia
de
la
calidad
de
los
datos.
Y
es
que
si
nos
fijamos
en
el
paper,
luego
pasa
el
Colab,
¿no?
Para
que
podáis
analizar
el
pipeline
este
que
habéis
aquí
de
filtro
de
datos,
¿no?
Pero
la
visión
general
un
poco
que
tenían
es
que,
pues,
el
objetivo
era
crear
datos
de
entrenamiento
blingues,
como
decía,
inglés
y
chino,
de
alta
calidad,
¿no?
A
partir
de
la
web,
¿no?
Que
es
de
donde
se
parte
la
mayoría
de
las
veces.
Esto
implica,
pues,
usar
herramientas
específicas
para
identificar
idiomas
y
limpiar
esos
datos,
¿no?
Que
nos
van
a
venir
de
la
web
donde
nos
podemos
encontrar
datos
en
todo
tipo
de
idiomas.
Y,
pues,
a
la
hora
de
limpiar
datos,
pues,
podemos
encontrar
desde
algo
que
aporta
muy
poco
valor
o
ninguno,
pues,
hasta
como
decía,
¿no?
Pues,
blog
posts
o
algún
tipo
de
publicación
que
sí
que
es
informativa,
que
da
mucho
detalle,
¿no?
Y
que
puede
hacer
que
el
modelo,
pues,
aprenda
mejor.
Y
algunos
pasos
que
se
ven
en
el
diagrama
de
limpieza,
pues,
son
filtros
jurísticos,
¿no?
¿Cómo
se
eliminan
textos
de
mala
calidad?
Pues,
por
ejemplo,
URL,
¿no?
Que
sean
consideradas,
pues,
que
apunten,
¿no?
A
sitios
que
ya
sabemos
que,
pues,
como
algún
foro,
¿no?
Donde,
por
ejemplo,
pues,
haya
como
un,
se
utiliza
un
lenguaje
tóxico
o
sepamos
que
el
propósito
de
ese
foro
no
es
aportar
nada
de
concimiento
o
un
dominio
y
texto
sin
sentido,
también,
eliminarlo.
Luego
también
se
filtra
por
longitud
del
documento
inadecuada,
documento
muy
largo,
documento
demasiado
corto,
documentos
que
contengan
símbolos
especiales,
¿no?
Caracteres
que,
bueno,
pues,
que
el
modelo
no
entienda
o
que
directamente
también
tengan
líneas
que
no
están
finalizadas,
contenido
repetitivo
también
se
filtra,
¿no?
Para
que
el
modelo
no
memorice.
Un
paso
muy
importante,
¿no?
Eliminar
de
toda
esa
información
que
hayamos
recabado
de
la
web,
la
información
personal,
como
correo
electrónico,
números
de
teléfono,
nombre
de
personas,
registros
médicos,
etcétera.
Luego
hay
otro
tipo
de
filtros,
¿no?
Como
pueden
ser
filtros
aprendidos
que
usan
métodos
avanzados
para
tratar
contenido
complicado,
¿no?
Especialmente
estos
lo
usan
para
chino,
pues,
que
se
basa
en
descartar
documentos
queson
demasiado
confuso
de
baja
calidad
y
eliminar
documentos
que
son
incoherentes
o
tienen
contenido
peligroso.
Y
luego
hay
filtros
basados
en
agrupaciones.
Agrupaciones,
aquí
quiere
decir
en
este
caso,
clúster,
¿no?
Que
agrupar
esos
documentos,
¿no?
Sobre
los
que
se
quiere
realizar
el
pretraign
en
clúster
para
evaluar
y
mejorar
la
calidad
de
manera
más
efectiva.
Y
por
último,
de
duplicar,
¿no?
De
duplicar
se
ha
demostrado
que
tiene
unos
efectos
muy
positivos
en
la
calidad
del
modelo
final
que
obtenemos.
Vale,
pues
el
resultado
que
consiguen
en
Gino
haciendo
este,
por
supuesto,
este
tipo
de
filtrado,
más
todo
el
training,
¿no?
Pues
producen
un
conjunto
de
datos
al
final
de
3,1
billones
de
palabras.
En
realidad
son
tokens
de
alta
calidad
en
inglés
y
chino.
Este
conjunto
de
datos
es
más
limpio
y
verso
en
comparación
que
otro.
Y
como
hablábamos,
¿no?
En
parte
debido
a,
pues,
esos
métodos
efectivos
del
impiesto
y
filtrado.
Con
lo
cual
recalco,
¿no?
Esa
preprocesing
es
crítico,
porque,
bueno,
ya
sabemos
que
si
tenemos
muchas
GPUs
y
el
arquitectura
transformer,
pues,
obviamente,
van
saliendo
algunas
modificaciones
especial,
sobre
todo
en
el
tema
de
embeddings,
¿no?
¿De
qué
tipo
de
embeddings
se
utilizan
para
trabajar
con
contextos
más
largos
o
variaciones
en
el
mecanismo
de
atención
para
que
también
permita
o
trabajar
con
contextos
más
largos
o
que
no
sea
tan
costoso
en
términos
de
complejidad
espacio
temporal?
Pero
al
final,
eso
varía
muy
poco
y
lo
que
se
está
demostrando
que
importa
mucho
y
de
ahí
el
sentido
también
de
este
jacazón
es
tener
datos
de
calidad.
Y,
bueno,
como
muestra
un
botón,
por
así
decirlo,
y
este
modelo,
¿no?
El
que
estábamos
hablando,
que
han
hecho
este
preprocesado
tan
exquisito,
pues,
aquí
tenemos
subversiones
en
los
benchmarks
de
6
y
34
billones,
que
vemos
que,
bueno,
en
su
tamaño,
pues,
rivaliza
con
modelos,
pues,
con
otros
modelos
OpenSoul
como
Llamados,
NoFalcon,
etcétera.
Aquí
tenemos
el
benchmark
como
el
MMLU,
BitspanHard,
etcétera.
Y
luego
en
otros,
como
matemáticas
y
código,
digamos
que
teniendo
en
cuenta
la
limitación
de
esos
billones
de
parámetros,
pues,
es
un
modelo
que
está
estado
del
arte
con
otros
modelos,
con
otros
grandes
que,
seguro
que
no
suenan
a
todos
como
son
Mistral,
Llamados,
no,
etcétera.
Entonces,
vale.
Aquí
os
dejo
el
paper
para
que
os
lo
leáis,
si
queréis.
Yo
os
lo
recomiendo
mucho,
porque
ya
os
digo
que
modelos
de
estado
del
arte,
pues,
digamos
que
desvelan
bastantes
ingredientes
que
son
importantes
a
la
hora
de
realizar
ese
pre-training
y
a
la
hora
de
generar
datos
de
calidad.
Entonces,
lo
que
vamos
a
ver
ahora
es
cómo
hacer
fine
tuning,
digamos
que
esto
ya
pertenece
a
la
parte
del
post-training,
de
cuando
ya
hemos
pre-entrenado
y
ahora
queremos
ajustar
el
modelo,
como
sabéis,
para
resolver
un
problema
concreto,
pues,
como
en
esa
parte,
efectivamente,
también
la
calidad
de
los
datos
importa.
Entonces,
para
este
ejemplo,
lo
que
he
creado
son
dos
data
sets,
son
data
sets
de
traducciones
de
inglés
a
español,
con
lo
cual
haríamos
fine
tuning.
Vamos
a
hacer
fine
tuning
a
un
modelo
para
que
nos
sirva
como
traductor.
Y
he
creado,
como
os
decía,
dos
data
sets.
Uno
con
traducciones
de
alta
calidad
para
las
cuales
he
usado
GPT4
y
otro
de
traducciones
de
mala
calidad
entre
comillas.
Para
ese
data
set,
también
he
usado
GPT4,
pero
especificando
en
el
PROM
que
era
un
traductor
de
baja
calidad
y
que
con
lo
cual
podía
cometer
algún
tipo
de
error.
Entonces,
bueno,
aquí
como
veis,
cargamos--
Esto
es
una
muestra
de
los
dos
data
sets
de
training,
el
data
set
con
la
traducción
de
calidad
y
el
data
set
con
las
traducciones
de
mala
calidad.
Aquí
vemos
que
en
esta
muestra
tenemos
20
ejemplos
de
cada.
Las
pasamos
a
pandas.
Es
muy
fácil,
como
veis,
convertir
un
data
set
de
Javier
Feis
a
pandas
para
que
podamos
hacer
el
display.
Y
aquí
si
nos
fijamos
en
las
traducciones,
el
data
set
que
voy
a
utilizar
para
entrenar
de
calidad,
pues
bueno,
podemos
echar
un
vistazo.
Pero
vemos
queestán
bastante
bien.
No
hay
ningún
tipo
de
error
gramatical,
ni
ninguna
traducción
literal,
etcétera.
No
sé
si
María
os
ha
compartido
el
cola,
si
no
lo
voy
a
compartir
yo,
pero
podéis
verlo.
Luego,
con
el
data
set
de
mala
calidad,
de
traducción
de
mala
calidad,
pues
ya
podemos
ver
que
hay
cosas
no
o
hay
algunas
traducciones
que
no
son
del
todo
correctas.
Por
ejemplo,
esta,
dónde
puedo
aparcar,
where
can
I
park,
de
donde
puedo
estacionar.
Me
gustaría
la
número
16.
Me
gustaría
alquilar
un
coche.
Me
gustaría
rentar
un
carro.
Vemos
que
es
como
un
poco
literal.
Aquí
tenemos
también,
por
ejemplo,
cómo
puedo
cancelar
mi
reserva.
Necesito
y
la
traducción
sería
necesito
cancelar
mi
reservación,
no?
No
cual
tampoco
es
muy
exacto.
Y
otro
tipo
de
errores
que
podemos
aquí,
como
veis
ésta,
me
gustaría
crear
una
reserva
para
la
cena
para
dos
personas
y
quiero
hacer
una
reserva
de
cena
para
dos.
Ésta
estaría
bien,
sinceramente.
Pero
hay
otras,
como
decía,
que
contienen
algún
error
que
es
probable,
que
en
errores
de
menos,
que
en
errores,
perdón,
que
con
modelos
de
traducción
de
menos
calidad,
pues
sea
comunes,
¿no?
Se
puedan
cometer.
Entonces,
una
vez
que
tenemos
esos
dos
data
sets
que,
como
digo,
los
arepúblicos,
por
si
alguien
quiere
reproducir
el
ejemplo
en
tuen,
pues
tendríamos
que
hacerle
fine
tuning.
Entonces,
yo
lo
que
he
hecho
para
hacer
fine
tuning,
bueno,
aquí
tenemos
que
estas
traducciones
reflejan
errores
comunes,
¿no?
Como
traducciones
literales,
que
lo
que
habíamos
dicho,
terminó
lo
que
era
incorrecta
y
errores
gramaticales
típicos
de
traducción
de
baja
calidad.
Una
vez
tenemos
esos
dos
data
sets
que
he
creado
de
mil
ejemplos
cada
uno,
pues
lo
siguiente
sería
hacer
fine
tuning
a
dos
modelos.
Uno,
en
el
data
set
de
traducción
de
calidad,
yo
tengo
en
el
data
set
de
traducciones
que
no
tienen
esa
calidad.
Entonces,
en
este
caso,
aprovechando
también
que
han
salido
hace
15
días,
pues
he
utilizado
los
modelos
GEMMA
de
Google,
en
concreto
los
de
2
billones
de
parámetros,
para
que
cualquiera
pueda
reproducir
el
experimento
en
un
colap
gratuito.
Y
le
he
posh
hecho
fine
tuning.
Y
lo
siguiente,
¿no?
Es
un
poco
que
os
quiero
enseñar,
es
cómo
le
hacemos
ese
fine
tuning,
que
aunque
lo
he
contado
como
dice
María
muchas
veces,
pues
estoy
buscándolo.
Aunque
lo
he
contado
muchas
veces,
pues
bueno,
no
está
demasiado.
Vale,
yo
creo
que
está
aquí.
Si
no
se
ve,
María
me
lo
dice.
Vale.
Creo
que
se
ve
bastante
bien,
¿no?
Y
bueno,
en
este
caso,
he
aprovechado
un
colap
que
ya
tenía,
¿vale?
En
el
que
para
ilustrar
el
proceso
de
fine
tuning,
porque
es
exactamente
igual
donde
le
hacíamos
fine
tuning
a
GEMMA
2
billones,
pero
en
el
data
set
Open
Hermes,
usando
Polora,
que
ahora
comentaremos.
Open
Hermes
es
efectivamente
un
data
set
de
instrucciones,
contiene
un
millón
de
instrucciones
de
alta
calidad.
Ahora
mismo
el
data
set
en
el
Hub
está
en
inglés.
A
ver
si
en
este
Hub,
a
Zom,
nos
sincronizamos
y
colaboramos
y
creamos
algo
así
en
español.
Pero
es
el
data
set
de
instrucciones
sintéticas
de
mayor
calidad
que
hay
en
el
Hub
de
Javi
Pace.
Y
de
hecho,
muchos
de
los
modelos
que
están
en
estado
del
arte
o
que
opcionen
mejor
puntuación
en
la
leaderboard
de
modelos
y
demás
Benchmark,
pues
son
resultados
de
hacerle
fine
tuning
en
este
data
set
que
vamos
a
ver
ahora.
Entonces,
lo
típico
de
siempre,
he
instalado
la
versión
de
Torch
que
veis
aquí,
la
211,
por
temas
de
que
puede
ir
un
poco
más
rápido,
¿no?
Es
un
poco
recomendado.
Lo
siguiente
sería,
para
trabajar
con
Gemma
había
que
instalar
esta
versión
de
Transformer,
si
instaláis
la
última
os
va
a
ir
igual.
Instalamos
Transformer,
Reformer,
Learning,
porque
tiene
un
wrapper
para
Supervised
Fine
Tuning
en
lo
que
vamos
a
hacer,
que
nos
ayuda
a
un
sincrisis
de
la
vida.
Instalamos
Peth,
porque
vamos
a
hacer
fine
tuning
utilizando
adapters.
El
que
quiera
logger
su
experimento
a
Wacom
Bayasis,
pues
tiene
que
instalar
o
cuánde
ve.
Vamos
a
instalar
también
Accelerate
para
hacer
un
sáptimo
del
hardware,
Datasets,obviamente
para
cargar
el
Datasets
y
Bits
and
Bites,
porque
como
es
cool
hora,
vamos
a
cargar
el
modelo
base
de
manera
cuantizada,
¿no?
Entonces,
bueno,
aquí
tenemos
los
imports
clásicos
que
nos
van
a
hacer
falta
para
trabajar,
para
hacer
este
fine
tuning.
Aquí,
importante,
¿no?
Nos
tenemos
que
loguear
en
Hadinface,
porque
os
recuerdo
que
para
usar
GEMMA
tenemos
que
aceptar
unos
términos,
entonces
para
que
se
cheque
que
los
hemos
aceptado,
hay
que
loguearse.
Además,
si
luego
queremos
que
esto
yo
se
emplee
recomiendo,
¿no?
Que
nuestro
objeto
trainer,
el
que
hace
el
fine
tuning,
pues
suga
automáticamente
el
modelo
o
el
adapter.
Cuando
ya
hemos
terminado,
pues
también
hay
que
estar
logueado,
¿no?
La
siguiente
celda
es
opcional,
los
que
queráis
loguearlo
a
Wacom
Bayasis,
pues
le
asignáis
un
nombre
de
proyecto
y
ejecutáis
esto,
no
tiene
más.
Luego,
como
os
contaba,
aquí,
en
este
caso,
cargaré
el
dataset.
En
nuestro
caso,
pues
sería
el
dataset
de
traducción
de
calidad
y
el
dataset
de
traducción
de
baja
calidad.
Aquí,
para
ajustarlo,
pues
es
el
dataset
instrucciones
OpenRM
2.5
y
formateado
al
estilo
Cephir,
que
ahora
os
comentaré
esto
un
poco,
el
sentido
que
tiene.
Cargamos
el
dataset
de
trial
y
de
test.
Si
aquí
veis
un
poco,
pues
el
formato
que
tiene
cada
uno.
Entonces,
¿por
qué
lo
formate
con
estilo
Cephir?
Lo
formate
con
estilo
Cephir,
porque
si
aquí
veis
el
ejemplo,
ya
no
se
incluye
estos
token
de
system,
user,
asistan,
que
nos
van
a
permitir,
no?
Que
el
modelo
resultante
de
esto
podamos
como
enchufarlo
o
conectarlo
a
todas
estas
interfaces
como
chat
ML
que
han
aparecido,
pues
que
nos
permiten
que
utilizemos
de
manera
intercambiable,
pues
modelos
de
lenguaje
mediante
estos,
por
así
decirlo,
estos
protocolos
o
estas
plantillas
de
formateo
de
datos,
¿vale?
Es
simplemente
por
eso.
El
model
ID,
pues
el
gem
de
2B,
como
hemos
comentado,
cargamos
el
token
ICEL
y
siempre
me
gusta
ver
qué
tokens
especiales
tiene,
¿no?
Contiene
el
modelo
desde
SuperTrain.
Y
vemos
que
tiene
el
token
de
inicio
de
secuencia,
el
de
final,
el
token
desconocido
y
el
de
padding.
Y
esto
de
ahora
es
importante,
¿vale?
Entonces,
hubo
un
problema
con
los
modelos
gemma
y
es
que
si
el
primer
token
o
no
era
el
de
comienzo
de
secuencia,
esta
que
hemos
de
vos,
la
generación
no
iba
o
iba
mal,
¿no?
Entonces,
yo
para
evitar
ese
tipo
de
problemas,
lo
que
hago
aquí
en
esta
función
de
formatear
es
que
a
estos
ejemplos
que
estáis
viendo
aquí,
a
cada
ejemplo
del
dataset,
le
voy
a
añadir
ese
token
al
inicio
más
lo
que
había
ya
en
ese
campo
y
reemplazo
el
token
este
que
habéis
aquí
de
final
de
secuencia,
porque
este
es
típico
de
decir
que
es
mistral
por
el
de
secuencia
que
tiene
el
modelo,
que
es
este.
Son
tokens
que
él
ya
sabe
este
modelo,
¿qué
significado
tienen?
Si
le
añadimos
uno
nuevo,
dejamos
este
que
estaba
de
mistral,
pues
tendrá
que
aprenderlo
durante
el
entrenamiento
porque
no
sabe
qué
significa
ese
token.
Pues
esto
sobre
todo
añadir
este
comienzo
de
secuencia.
En
los
casos
gemma
me
costa
que
es
importante
para
que
vaya
yo.
Y
bueno,
luego
si
imprimimos
un
ejemplo,
pues
ya
vemos
que
le
ha
añadido
ese
token
y
vemos
también
que
en
lugar
de
poner
en
octés,
pues
pone
aquí
final
de
secuencia,
¿vale?
Bueno,
pues
formateamos
de
esa
manera
el
dataset
entrenamiento,
formateamos
también
el
de
test
y
lo
siguiente,
algo
muy
importante,
porque
el
uso
del
AGPU
o
la
AGPU
que
vayamos
a
necesitar
es
yo
diría
directamente
proporcional
entre
otros
parámetros
al
tamaño
máximo
de
secuencia
que
establezcamos,
¿no?
Entonces,
¿cómo
podemos
saber
con
qué
secuencias
estamos
trabajando?
Pues
dibujando,
¿no?
La
distribución
de
longitud
de
tokens
de
nuestros
ejemplos.
Y
aquí
vemos,
¿no?
Que
nuestra
distribución
se
quedaría
un
poco
este
pico,
lo
tiene
aquí
como
en
los
1000
tokens
o
algo
así,
si
teniendo
1000
tokens
habríamos
cubierto
una
gran
cantidad
de
casos,
pero
vemos
que
hay
algunos
e
incluso
algunos
ejemplos
que
están
cerca
aquí
de
los
3000
pico
o
4000
tokens.
Bueno,
si
yo
tengo
esta
gráficaaquí,
sé
que
con,
por
ejemplo,
512
tokens,
¿vale?
Que
sería
por
aquí,
pues
voy
a
cubrir
también
una
gran
cantidad
de
los
ejemplos
del
dataset
y
voy
a
utilizar
menos
memoria
de
AGPU,
obviamente,
que
si
cojo
1,024,
en
el
caso
de
que
cubriré
más
ejemplos,
pero
voy
a
necesitar
mucha
AGPU.
Esto
ya
va
a
depender,
obviamente,
de
la
AGPU
que
tengáis
disponible,
¿no?
Vale,
lo
siguiente.
Cargaré
el
modelo
base,
¿no?
Que
queremos,
al
que
le
vamos
a
dar
fine
tuning,
en
4
bits,
¿no?
Para
aprovechar
que
no
tenemos
una
configuración
de
hardware
muy
potente,
pero
aún
así
podamos
seguir
haciéndole
fine
tuning.
Entonces,
creamos
el
objeto
de
configuración,
que
como
veis
es
muy
sencillo.
Le
decimos
que
lo
queremos
cargar
en
4
bits,
que
el
tipo
de
cuantizaciones
en
F4.
Le
decimos
que
aquí
el
compute
ties
starts
bflot16.
El
bflot
este
16,
sale
del
fichero
de
configuración
del
modelo.
Es
un
poco,
si
os
vais
al
config
de
Gemma
2Billion,
veréis
que
donde
pone
torches
de
type,
de
hecho
hay
un
parámetro
que
se
llama
así,
pues
está
en
bflot16,
¿no?
En
esa
precisión.
Entonces,
bueno,
no
hay
magia
negra,
por
así
decirlo.
Sale
de
ahí.
Y
aquí
le
decimos
que
no.
En
este
caso
no
queremos
que
utilice
cuantización
doble.
Vale,
pues
ya
cargamos
el
modelo
con
la
clase
auto,
donde
le
pasamos
el
ID
y
el
objeto
de
cuantización,
¿no?
Que
hemos
creado
anteriormente.
Una
vez
que
hemos
creado
eso,
bueno,
aquí
me
creé
un
método
auxiliar
que
nos
dice
de
todos
los
billones
de
parámetros
que
tiene
el
modelo,
cuántos
parámetros
vamos
a
entrenar.
Pero
que
no
hace
falta.
De
hecho,
creo
que
lo
trae.
De
hecho,
creo
que
este
método,
ya
cuando
creamos
este
objeto
de
PEP,
nos
dice
ya
directamente
cuántos,
qué
porcentaje
de
los
parámetros
equivale
en
las
matrices
de
los
adapters
que
vamos
a
crear.
Pero,
pues
si
alguno
quiere
verlo,
pues
con
este
método
también
nos
lo
va
a
decir.
Y
esto
ya
lo
importante,
bueno,
muy
importante.
Esto
es
la
configuración
de
esos
adapters
para
el
que
así
rápidamente
el
que
no
sepa
lo
que
es
un
adapter
es
como
unas
nuevas
matrices
que
creamos
nosotros
y
que
un
paper
muy
famoso
determinó
que
si
esas
matrices
las
aplicamos
a
todas
las
capas
linear,
¿vale?
Lineales
del
modelo,
conseguimos
un
mismo,
conseguimos
un
rendimiento
prácticamente
igual
que
si
hacemos
full
fine
tuning.
Full
fine
tuning,
obviamente,
tendría
un
coste
prohibitivo
para
nosotros
porque
había
que
actualizar
todos
los
pesos
del
modelo.
Y
aquí
solo
actualizamos
las
matrices
que
nosotros
definamos
aquí
y
en
el
rango
en
que
nosotros
decidimos.
Con
lo
cual,
los
parámetros
que
nosotros
actualizamos
no
es
todo
el
modelo,
sino
esas
matrices
que
hemos
decidido
aplicar
a
lo
que
vemos
aquí,
estos
target
modules.
¿Aquí
qué
deberíamos
de
poner?
Pues
aquí
deberíamos
de
poner
todas
las
capas
linear
del
modelo.
Éstas
las
he
sacado
del
ejemplo
de
Haggingface
que
al
principio,
por
lo
menos
cuando
empezaron
a
integrar
Yema,
se
añadíamos
porque
el
modelo
tiene
más
capas
linear,
pero
se
añadíamos
más
el
comportamiento
del
21
era
un
poco
inestable.
Pero
bueno,
esto
también
depende
un
poco
de
la
memoria
también
de
la
GPU
que
tengamos
nosotros.
Si
tenemos,
o
sea,
lo
recomendado
por
el
paper
es
que
añadimos
todas
las
capas
linear,
pero
si
no
tenemos,
si
no
tenemos
mucha
GPU
con
las
capas
de,
o
con
las
matrices
de
atención,
que
son
Query,
Kibaliu,
como
veis
y
la
proyección,
pues
también
da
buenos
resultados.
Estos
parámetros
del
rank
y
el
aura
alpha,
pues
el
rank
es
algo
que
se
suele
establecer
entre
8
y
1632,
y
el
aura
alpha
como
doble
del
rank.
El
rank
es
el
rango
de
estas
matrices.
Vaya
se
suele
establecer
a
la
non-e,
se
le
pone
algo
de
dropout,
como
cualquier
red
neuronal
y
el
tipo
de
tarea,
pues
es
casual
el
language
modeling.
Vale,
aquí
si
descomentamos
esto,
pues
podemos
imprimir,
como
decía,
todos
los
parámetros
que
al
final
entrenamos
del
modelo
o
el
equivalente,
porque
los
parámetros
del
modelo,
recordad,
no
los
tocamos.
Entrenamos
las
nuevas
matrices
esas
quehemos
definido
sobre
las
capas
linear.
Aquí,
importante,
estos
parámetros
también
van
a
afectar
directamente
al
tamaño
de
la
GPU
que
tengamos,
¿no?
En
micro-batch
size,
pues
en
este
caso,
yo
mi
entrenamiento
lo
hice
en
una
100,
entonces
puse
que
sería
32,
que
el
batch
size
128.
Pues
al
final
tenemos
que
los
pasos
en
los
que
se
acumule
el
gradiente
es
128
entre
32.
Que
tenéis
menos
GPU,
pues
esto
lo
establecéis
a
8,
lo
establecéis
a
4,
¿no?
Como
ya
digo,
como
en
función,
en
función
de
la
GPU
que
tengáis,
es
jugar
con
ese
parámetro,
la
longitud
también
de
la
secuencia,
¿no?
Pues
esas
cosas
al
final
consumen
más
o
menos
memoria
de
la
GPU.
Y
lo
demás,
pues
aquí
los
training
arguments
tampoco
tiene
mucha
magia,
¿no?
Yo
siempre
como
digo,
le
digo
que
sí
lo
quiero,
que
sí
que
quiero
hacer
puse
al
hash,
que
lo
subo
de
manera
privada
inicialmente,
porque
igual
quiero
evaluarlo
y
probarlo
antes
de
que
quede
expuesto
públicamente.
Otra
cosa
importante,
aquí
no
lo
he
usado,
pero
si
usamos
gradient
checkpointing
también,
agorraríamos
memoria,
¿no?
En
este
experimento
no
lo
he
necesitado,
hace
que
vaya
un
poco
más
lento
el
entrenamiento,
pero
ahorramos
también
memoria.
Sólo
quiero,
¿no?
Que
vea
todo
el
data
set
entrenamiento
durante
una
epoca,
una
sola
vez.
Y
ya
bueno,
pues
otros
parámetros
ya
fijos,
como
el
learning
rate,
un
SIP
para
que
sea
reproducible,
cada
cuántos
pasos
queremos
que
se
armó
el
checkpoint
y
que
haga
evaluaciones.
Si
lo
queremos
reportar
a
Wegan
Bayasis
o
a
TensorBoard,
lo
podemos
como
queramos.
Y
esto
es
importante,
que
esto
sea
Fp16,
¿no?
O
Bf16
va
a
depender.
Si
estamos
en
una
tarjeta
gráfica
de
Gamma
and
Per,
como
son
las
A100,
H100,
las
RTX,
pues
podemos
hacer
entrenamiento
en
Bf16.
Si
estamos
en
una
T4
o
V100
con
la
T4,
pues
tenemos
que
poner
esto
a
true
y
esto
a
false,
¿vale?
Esto
depende
de
la
capacidad
de
compute
que
tengamos.
Ya
os
digo,
tarjetas
de
la
Gamma
and
Per,
pues
esto
permite
el
entrenamiento
en
Bf16.
Si
no,
es
simplemente
cambiar
esos
parámetros
en
función
de
la
GPU
que
tengan.
Y
ya
lo
siguiente,
pues
como
decíamos,
creamos
un
objeto
trainer
donde
pasamos
el
modelo,
el
data
set
de
entrenamiento,
la
evaluación,
la
configuración
de
nuestros
adapts,
en
qué
campo
o
columna
de
nuestro
data
tiene
que
mirar,
que
le
hemos
llamado
test.
Aquí
como
os
decía,
hemos
puesto
que
la
máxima
longitud
de
la
secuencia
va
a
ser
el
1024,
que
no
nos
cabe
en
la
GPU,
pues
podemos
poner
512.
Ya
hemos
visto
que
cubrimos
también
bastante
cantidad
de
ejemplo,
digamos
que
no
cortamos
muchos.
Le
pasamos
el
tokenizer,
los
argumentos
de
entrenamiento
que
acabamos
de
definir
y
eso
también
es
importante,
¿no?
Le
decimos
que
no
añada
tokens
especiales,
¿por
qué?
Porque
los
hemos
puesto
nosotros
aquí
ya.
Recordad
que
los
hemos
puesto
aquí,
los
tokens
especiales.
Le
decimos
que
no
los
añada
esos
tokens
especiales
y
que
tampoco
nos
añada
un
token
adicional
como
separador,
¿vale?
Este
parámetro
Packing
si
igual
a
truco
es
como
para
empaquetar
los
ejemplos
y
que
el
entrenamiento
sea
más
eficiente,
pero
bueno,
tampoco
es
importante
o
muy
significativo
en
el
proceso
de
fine
tuning.
Lo
que
os
decía
es
si
habéis
reportado
experimento
a
Weidan
Bayasi,
pues
nada,
pero
podéis
también
reportarlo
en
tiempo
real
aquí
al
cargar
en
la
extensión
tensorboard,
decirle
obviamente
que
donde
van
a
estar
logueados
los
logs
pues
es
donde
si
habéis
puesto
que
el
directorio
de
salida
es
este,
pues
puedes
poner
ese
nombre,
barra
runs,
o
si
ponéis
simplemente
ese
nombre,
también
os
lo
va
a
coger.
Y
aquí
veáis
en
tiempo
real
pues
la
evolución,
como
os
aquí
por
ejemplo
de
la
ejecución
que
yo
hice,
la
evolución
de
la
loss
en
la
evaluación,
luego
tenéis
también
la
evolución
de
la
loss
como
veáis
en
el
entrenamiento,
veis
cómo
el
Google
empieza
a
converger,
etcétera.
Y
bueno,
lo
siguiente
es
muy
sencillo,
es
simplemente
trainer.train
y
empieza
el
entrenamiento.
Como
decía,
aquí
veis
que
a
los
quehayáis
puesto
que
lo
que
hayáis
a
Weidan
Bayasi
pues
o
está
el
link
y
lo
podéis
seguir
ahí.
Y
siempre
dejamos
ejecutando
esta
celda
de
cuando
termine
el
entrenamiento,
que
se
haga
el
push
al
have,
automáticamente.
Bueno,
luego
si
no
da
tiempo
volvemos
sobre
esto,
vale,
que
esto
es
un
poco
como
se
probaría
el
modelo,
digamos
que
no
era
el
ámbito
un
poco
de
lo
que
queríamos
ver.
Entonces
vamos
a
compartir
otra
vez
la
otra
pantalla.
Nos
sabemos
que
es
la
fase
de
fine
tuning,
si
repetimos
ese,
si
hacemos
ese
proceso
de
fine
tuning
que
acabamos
de
ver,
con
un
modelo
gem,
el
que
elegí
o
yo,
o
el
que
queráis
en
este
caso,
con
los
datos
de
calidad
y
de
traducción
de
calidad
y
de
traducciones
de
baja
calidad
menos
calidad,
pues
tendremos
dos
modelos
al
final.
Entonces
yo,
esos
dos
modelos
que
he
hecho,
pues
yo
esos
dos
modelos
le
he
pasado
unos
tests
que
son
una
serie
de
frases
en
inglés
que
quiero
que
me
traduzca
a
español.
Y
lo
sé
almacenado
también
en
un
data
set
en
el
have
que
lo
tengo
aquí
como
traducciones
inglesa
español,
resultados
del
modelo
que
se
han
entrenado,
que
se
ha
fenceintuneado
en
traducción
de
alta
calidad.
Y
aquí
tenemos
los
resultados
del
modelo
que
se
han
entrenado
en
datos
de
mala
calidad.
Vale,
los
pasamos
otra
vez
a
pandas,
como
veis
para
que
los
puedan
visualizar
sin
problemas.
Y
aquí
tenemos
pues
los
resultados
del
modelo
que
se
entrenan
en
datos
de
calidad,
donde
yo,
por
ejemplo,
no
veo
ninguna
pega,
hay
un
vegetarian,
soy
vegetariano,
me
gustaría
crear
una
bici,
aquí
también
nos
dice
que
quisiera
tirar
una
bici,
las
errores
que
veíamos
antes
no
se
cometen.
Pero
si
nos
vamos
a
los
resultados
de
mala
calidad,
o
sea
del
modelo
que
hemos
entrenado
con
datos
de
mala
calidad,
fijaos
lo
importante
que,
porque
aquí,
por
ejemplo,
me
gustaría
tirar
una
bici,
pues
nos
dice
que
me
gustaría
rentar
una
bici.
Hay
otros,
¿no?
Can
you
call
a
taxi
for
me?
Pues
llamar
a
un
taxi
por
mí
y
aquí
dice,
puedes
hacer
una
llamada
a
un
taxi
para
mí,
lo
cual
tampoco
sería,
no
suena
natural,
no
es
del
toco
correcto.
Soy
vegetariano,
¿no?
Fijaos
la
traducción,
soy
vegetal,
no
tiene
nada
de
sentido.
O
sea
que
fijaos
al
final,
¿no?
Porque
os
he
enseñado
una
muestra
del
data
set,
de
gran
traducciones,
bueno,
que
cometiera
algún
tipo
de
error,
pero
podéis
pensar,
bueno,
pero
esto
es
algo
sutil,
¿no?
No
va
a
importar.
Pues
sí,
como
veis,
efectivamente,
sí
que
importa.
Sí
que
importa
ese
tipo
de
filtrado,
¿no?
Y
de
trabajarse,
de
trabajarse,
eso
trata,
¿sí?
Al
final
hay
una
frase
por
ahí
que
dice,
el
80
o
el
90%
de
un
proyecto
de
machine
learning
son
los
datos,
trabajar
y
preparar
los
datos.
Y
con
los
LLMS,
¿no?
A
los
modelos
de
lenguaje,
pues
no
iba
a
ser
tampoco
ninguna
excepción,
¿no?
Entonces,
bueno,
pues
esto
es
un
poco
como
el
resultado,
¿no?
De
que
podéis
ver
aquí,
de
entrenar
con
datos
de
calidad
y
de
entrenar
con
datos
de
mala
calidad.
Y
ahora
no
sé,
María,
si
hay
alguna
pregunta
o
algo.
Creo
que
preguntas
de
momento,
no.
El
tema
es
que
me--
bueno,
ahora
damos
unos
momentines
que
seguro
que
empiezan
a
surgir.
Me
compartiste
un
collab,
pero
el
que
está
enlazado,
o
sea,
el
del
fine
tuning,
no.
Entonces--
El
del
SAT,
¿dónde
lo
he
pasado?
Dice.
Sí.
Pero,
bueno,
después,
ya
he
dicho
por
el
SAT
que
eso
me
lo
mandas
y
lo
subo
también
al
mismo
repo.
O
lo
mandas
toda
hora.
Vale,
sí.
Te
lo
paso
por
aquí,
¿vale?
El
mismo.
Y
ya
deberías.
Vale,
genial.
Bueno,
el
tema
es
el--
Perdón,
María,
mucho--
mucho
hincapié
en
el
tema
del
fine
tuning,
porque
como
tú
dices,
al
final
siempre
acaba
hablando
de
fine
tuning
y
de--
No,
pero
está
bien.
Al
final
es
lo
que--
bueno,
sí,
es
lo
que
más
hace.
O
sea,
que
también
es
lo
que
tiene
más
experiencia
y
puedes
compartir
más--
Como
dice
David
en
los
comentarios,
puedes
compartir
una
ancestral
sabiduría.
Sí,
ahí
hay
un
post
de
Philip
Smith,
que
trabaja
en
Javi
and
Faith,
que
es
como
la
guía
definitiva
del
fine
tuning,
donde
pone
un
montón
de
buenas
prácticas,
que,
bueno,
que
no
se
me
pase
también,
que
lo
encuentre
y
lo
comparta,
¿vale?
En
Discord
somosen
LPL
o
compartiré,
porque
aún
un
poco
como--
pues,
como
todas
las
buenas
prácticas,
que
pues,
pues,
que
diferentes
personas
que
han
hecho,
hemos
hecho
muchos
experimentos,
pues
han,
pues,
así
decirlo,
han
llegado
un
consenso
que
es
lo
mejor.
Por
ejemplo,
cuando
se
utilita
adapters,
esas
marines
de
qué
rank,
¿no?
Las
hacemos
de
8,
16,
32,
qué
número
hay
funciona
mejor,
¿no?
Pero
ese
tipo
de
truquillos,
pues,
hay
como
un
post
ahí
que
merece
mucho
la
pena.
-
Ah,
genial.
Pues,
pásamelo.
Supongo
que
estar
en
inglés
podemos
ahí
pasarlo
por--
-
No,
sí.
No,
no.
-
A
ver,
vamos
a
decirlo.
-
Pasan
una
solución
y
otra
cosa
importante.
Yo
estoy
haciendo
una
versión
con
Auto
Train,
de
esto
que
acabáis
de
ver,
¿no?
Auto
Train,
al
final,
es
una
solución
de
Javi
and
Faith,
que
estamos
una
vez
más,
¿no?
Agradecíos
que
siempre
nos
ayuden
con
recursos,
este
tipo
de
iniciativas.
Es
una
solución
Open
Source,
también,
la
podéis
descargar
en
local
o
usarla
a
través
de
su
space,
que
os
permite
mediante
una
interfaz
gráfica,
que
os
tengáis
que
pelear
mucho
con
hiperparámetros
de
entrenamiento,
con
qué
GPU,
caben
la
GPU,
no
cabe.
Pues
es
una
interfaz
gráfica,
seleccionáis
el
modelo,
el
data
set
y
cuatro
cositas
y
os
haces
el
fine-tuning
del
modelo
de
manera
automática,
¿no?
Es
una
solución
bastante
potente
que
os
recomiendo
usar,
¿no?
Y
que,
bueno,
yo
pasaré
la
versión
Open
Source
de,
más
que
Open
Source,
un
cola
donde
con
Auto
Train
se
pueda
re-eplicar
esto
que
hemos
visto
exactamente,
¿no?
Si
no
hayá,
creo
que
no
es
muy
complica,
¿no?
Pero
alguien
que
esté
menos
metido
en
el
mundo
este,
igual
ve
tanto
hiperparámetro
que
lo
sabéis
inicialmente
y
le
echa
un
poco
para
atrás.
O
sea
que
con
cuatro
parámetros,
pues
también
sabe
el
resultado.
Sí,
sí,
sí.
Sí,
efectivamente,
porque
si
todavía
alguien
no
lo
sabía,
tenemos
críos
en
Auto
Train
patrocinados
por
Javi
and
Face,
entonces,
bueno,
también
lo
podéis
utilizar
como
opción
para
entrenar
vuestros
modelos
para
el
hackathon.
Creo
que
hay
un
par
de
preguntas.
Uno
más,
la
primera
más
sobre
el
objetivo,
cómo
estaba
organizado
el
hackathon,
o
sea,
el
taller,
en
el
sentido
de
cuál
era
el
motivo
para
crear
un
dataset
de
alta
calidad
y
otro
de
baja,
si
lo
has
entrenado
los
dos
o
hayan
dos
diferentes.
Y
son
dos
modelos
diferentes
entrenados
en
un
dataset
de
contrauciones
de
calidad
y
otro
contrauciones
de
mala
calidad.
Entonces,
hay
que,
al
final,
en
ese
dataset
de
resultados
que
os
he
enseñado,
pues,
se
pueda
percibir
que
la
calidad
importante.
Ese
era
precisamente
el
objetivo,
¿no?
El
ver
que
si
los
datos
iniciales,
tanto
de
pre-training,
fine
tuning,
lo
que
sea,
no
tienen
calidad,
pues
el
modelo
al
final
va
a
ser
un
reflejo
o
el
modelo
resultante
va
a
ser
un
reflejo
de
eso.
Efectivamente.
Ese
era
el
objetivo
del
taller.
Y
una
inquietud
que
nos
comparten
también,
¿cuál
es
la
relevancia
en
tu
opinión
de
GIA
en
el
contexto,
entiendo
yo,
del
NLP
en
español?
Porque
nos
cuenta
que
una
vez
hizo
fine
tuning
un
modelo
en
inglés,
contexto
en
español,
y
funcionó.
Y,
efectivamente,
es
un
poco
la
única
opción
que
tenemos
en
general.
Sí,
a
ver,
G
code,
yo
realmente--
Mira
que
hago
mucho
fine
tuning.
No
he
tocado
todavía
no
hecho
fine
tuning
a
ningún
modelo
G.
Pero,
bueno,
también
no
me
extraña
lo
que
nos
dice
este
usuario,
porque,
bueno,
Mistral,
por
ejemplo,
sobre
todo
los
primeros
Mistral,
los
vendían
que
estaban
pre-entrenados
en
texto
en
inglés
principalmente.
Y
luego,
cuando
se
le
ha
hecho
fine
tuning
en
dataset
en
español,
pues
funcionan
bastante
decente.
En
ese
proceso
que
veíamos
antes
de
preprocesing
de
filtering,
pues,
al
final,
ser
exhaustivo
a
nivel
de
filtrar
por
idioma
significa
tener
también
mucha
capacidad
de
cómputo.
Entonces,
digamos
que
eso
se
relaja
un
poco
y,
a
veces,
pues,
se
escapan
textos
o
restos
de
textos
en
otros
idiomas.
En
español
en
concreto,
teniendo
en
cuenta
que
es
un
idioma
hablado
por
muchas
personas
alrededor
del
mundo,
pues,
al
final,
la
web
también
es
un
reflejo
de
eso
y
hay
mucho
contenido
en
español.
Entonces,
casi,
o
sea,
yola
experiencia
que
tenia
es
que
muchos
modelos
que
han
sido
pre-entrenados
en
inglés,
en
este
caso,
inglés
y
chino,
luego
le
haces
fine
tuning
en
español
y
rinden,
no
sé
si,
no
te
daría
cualitativamente
un
número
de
súper
bien
o
tal,
pero
hay
ciertas
tareas
que
las
decían,
¿no?
Pues,
muy
bien.
Muchas
gracias.
Y
sí,
a
ver,
si
alguien
hace
un
fine
tuning
de
allí,
compartíslo
comunidad
y
nos
contaréis
a
ver
qué
tal
experiencia.
Yo
creo
que
lo
importante
es
que,
con
herramientas,
no
como
las
de
Argyla,
que
nos
presentaba
el
compañero
anteriormente
y
haciendo
uso
de
modelos
más
potentes
que
te
pueden
ayudar,
¿no?
A
esa
esenietiqueta
o
a
un
etiqueta
o
señautomático,
pues,
se
pueda
crear
ese
data
set
de
calidad
o
data
set
de
calidad
que,
al
final,
pues,
permita
hacer
fine
tuning
del
modelo
que
quieras,
¿no?
Al
final,
como
ha
visto
hacer
fine
tuning,
pues,
es
como
seguir
una
receta,
pero
si
no
hay
gasolina,
pues,
el
motor
no
va
a
arrancar,
¿no?
Y
necesitamos
gasolina
de
calidad
en
español,
que
es
lo
que
no
hay,
¿no?
Es
lo
que
no
hay.
A
ver
si
arreglamos
eso.
Última
pregunta
de
Aless.
Un
poco
nub,
dice,
pero
todas
las
preguntas
son
válidas
y
muy
bienvenidas.
Dice
que
muchos
ejemplos
y
tutoriales
ve
que
se
fija
manualmente
el
token
del
padding
a
ser
igual
que
el
end
of
sentence.
¿Por
qué?
Pues,
se
hace
porque
para
evitar
confusiones
a
la
hora
de--
A
ver,
el
tema
de
usar
ese
token
de
padding
solo
tiene
sentido
o
el
mayor
sentido
que
tiene
es
que
se
va
a
aprovechar
al
entrenar
en
GPU
su
capacidad
de
entrenamiento,
no
en
su
capacidad
de
paralización.
Entonces,
si
cortamos,
como
hemos
visto
ahí,
la
secuencia,
pues,
por
512
tokens,
imaginaos
que
nuestro
ejemplo
tiene
256,
se
rellena
del
256
al
512
con
ese
token,
¿no?
Entonces,
lo
que
hacemos
es
que,
oye,
vamos
a
entrenar
en
paralelo,
pero
que
sepa
el
modelo,
por
así
decirlo
cuando
se
está
enterando,
que
cuando
hay
el
token
de
padding,
en
este
caso,
es
equivalente
a
que
la
secuencia
ha
terminado,
¿no?
Eso
se
establece,
sí.
Genial.
Super
bien
explicado
y
muy
buena
manera
de
terminar
justo
en
punto.
Pues,
nada,
muchísimas
gracias,
Manu
otra
vez.
Ya
compartido
todos
los
links
para
Auto
Train,
para
dónde
están
los
recursos.
Si
alguien
está
viendo
esto,
pero
todavía
no
está
apuntado
al
jacatón,
pues,
que
se
apunte
ya.
Y
nada,
muchas
gracias.
Y
no
se
me
exploto.
No,
no
es
solamente
en
Discord.
Si
tenéis
más
preguntas,
ya
sabéis
que
podéis
pedir
ayuda
en
el
canal
PidaYuda.
Y
respondemos
en
cuanto
podamos.
Muchas
gracias.
Saludos.
(corte
de
base) | Manu Romero |
Proyecto #Somos600M: impulsando la diversidad lingüística en IA, María Grandury @SomosNLP | Hola
a
todos
del
mundo,
damos
comienzo
al
primer
día
de
keynote
de
nuestro
hackathon,
somos
600M.
Como
sabéis,
el
objetivo
de
la
iniciativa
es
crear
recursos
abiertos
y
de
calidad
de
pronunciamiento
de
lenguaje
natural
en
español
y
lenguas
oficiales.
Y
sobre
todo
nuestro
objetivo
este
año
es
que
todos
estos
recursos
que
generemos
representan
la
diversidad
de
los
600
millones
de
personas
hispanohablantes.
Entonces,
viendo
la
fecha
del
cartel
os
podéis
preguntar
si
seguimos
aceptando
inscripciones
o
gente
y
la
respuesta
es
que
sí,
seguimos
dando
la
bienvenida
a
muchísima
gente
que
cada
día
se
está
sumando
a
esta
iniciativa
y
de
hecho
hace
apenas
una
hora
llegamos
a
los
500
participantes.
O
sea
que
antes
de
continuar
quería
agradecer
a
todo
el
mundo
que
se
ha
sumado
a
esta
iniciativa
de
crear
recursos
en
español
diversos.
Así
que
bueno,
muchas
gracias
por
apoyar
la
iniciativa.
Como
decía,
esta
keynote
es
la
primera
de
cuatro
que
tendremos
hoy
y
cada
una
durará
entre
20
minutos
y
30
como
máximo
y
el
tema
común
es
el
procesamiento
de
lenguaje
natural
responsable.
Yo
comenzaré
hablando
de
la
importancia
de
la
Universidad
Linguística
en
IA
y
el
impacto
de
la
hackathon
y
bueno,
cómo
podéis
colaborar
de
diferentes
maneras.
Antes
de
decir
por
qué
necesitamos
diversidad
lingüística,
que
es
esto,
¿vale?
Entonces,
pocas
nociones
de
lenguística
tenemos
diferentes
variedades
de
una
lengua,
¿vale?
Hay
variedades
diatópicas
o
geográficas
que
serían
lo
que
conocemos
como
dialectos,
variedades
diacrónicas
o
históricas
que
serían
pues
el
español
actual
que
estoy
hablando
ahora
mismo,
español
moderno,
clásico
que
sería
el
del
siglo
de
oro
y
el
medieval.
Después
tenemos
las
variedades
diastráticas
o
socioculturales
que
serían
los
distintos
niveles
de
la
lengua,
es
decir,
alto,
culto,
medio
o
bajo,
el
volgar,
y
las
variedades
diafásicas
o
funcionales,
es
decir,
los
registros,
dependiendo
con
quién
estés,
no
hablas
de
la
misma
manera,
si
es
con
dos
amigos,
familiares,
también
hay
registros
más
especializados,
por
ejemplo,
las
jergas
de
una
profesión
determinada
o
argots,
por
ejemplo,
algo
juvenil.
Entonces,
bueno,
esto
es
para
que
veamos
que
realmente
hay
muchas
variedades
de
una
lengua
y
si
se
interesa
más
os
recomiendo
una
charla
que
dio
Chris
Aranda
en
la
edición
del
2022.
Está
obviamente
como
todas
nuestras
charlas
en
YouTube,
o
sea,
que
le
podéis
hacer
un
vistazo
esto
muy
bien.
Entonces,
bueno,
la
diversidad
en
español,
¿vale?
Vamos
a
hablar
de
los
hispanohablances.
El
caso
que
llevo
un
mes
por
Latinoamérica
y
el
Caribe
y
cada
vez
estoy
más
enamorada
de
las
diferentes
maneras
que
tenemos
de
expresarnos
en
español.
Por
ejemplo,
hay
diferentes
maneras
de
nombrar,
por
ejemplo,
si
queremos
decir
que
algunos
encanta,
podemos
decir
"Chevere,
vacán,
guay",
después
sí
vamos
a
tomar
la
guagua,
el
bus,
mi
colectivo,
dependiendo
de
la
zona
geográfica
en
la
que
estemos.
También
hay
diferentes
prisiones
que
utilizamos
al
hablar
colotealmente.
A
mí
me
han
llamado
la
atención,
por
ejemplo,
que
en
Uruguay
dice
en
"tual
rato"
"tá"
y
en
Chile
"po".
Sí,
"po",
no
"po".
Entonces,
eso
también
es
bastante
destacable.
Por
ejemplo,
es
pues
en
Puerto
Rico
que
me
invitaron
a
dar
una
conferencia.
Es
muy
común
incluir
palabras
en
inglés,
realmente
dos
de
cada
tres
están
en
inglés
y
es
muy
interesante
desde
el
punto
de
vista
de
la
inteligencia
artificial
cómo
reaccionaría
un
modelo
en
lenguaje
si
vas
cambiando
o
se
va
mezclando
idiomas.
El
tema
es
que
no
solo
no
todos
escribir
o
el
lenguaje
oral,
sino
que
también
pues
eso
tenemos
diferentes
acentos,
cosa
que
es
muy
interesante
a
la
hora
de
todos
estos
modelos
multimodales.
Cosas
características,
por
ejemplo,
algunos
ejemplos,
sería
el
Ceseo,
que
he
puesto
un
solecito
porque
es
ahí
donde
es
de
calor.
En
Andalucía,
en
Canarias,
hay
muchas
zonas
de
Latinoamérica
y
el
Caribe.
Por
ejemplo,
en
Argentina
y
Uruguay,
lo
que
se
haría
el
español
río
Platense,
pronuncian
la
"e"
y
la
"y"
como
"osh"
y
también
aspiran
la
"s",que
bueno,
de
hecho,
aspirar
la
"s"
es
muy
común
en
otras
zonas,
por
ejemplo
en
el
sur
de
España,
en
Chile,
en
zonas
del
Caribe.
Y
otra
curiosidad,
en
Puerto
Rico
a
veces
cambian
la
"r"
y
al
final
las
palabras
por
una
"l".
Seguro
que
lo
he
escuchado
en
canciones.
Bueno,
hay
muchas
particularidades
más.
Me
encantan,
son
preciosas.
Y
realmente
hay
muchas
maneras
que
teníamos
de
expresarnos
y
tendremos
que
conseguir
que
todo
esto
se
transmite
después
a
los
sistemas
de
inteligencia
artificial.
Porque
el
problema
es
que
los
modelos
del
lenguaje
siempre
van
igual,
¿no?
Entonces
no
es
que
hablo
en
español,
porque
no
hay
un
tipo
de
español
como
hemos
visto
ya
no
solo
en
estadía
positiva
sino
en
general,
cuando
hables
con
diferentes
personas.
Entonces
tenemos
que
conseguir
que
estas
inteligencias
artificiales,
estos
sistemas,
sí
que
representen
toda
la
riqueza
del
español.
Y
el
tema
que
siempre
decimos
español
y
lenguas
oficiales
es
que
en
los
países
hispanohablantes
no
solo
la
hemos
de
español,
sino
que
también
hay
muchísimas
otras
lenguas.
Por
ejemplo,
en
España
tenemos
cuatro
lenguas
oficiales,
que
serían
el
catalán,
el
valenciano,
el
gallego
y
el
euskera.
Y
aquí
destaco,
por
ejemplo,
el
proyecto
"Hilenia",
cuyo
objetivo
es
crear
más
recursos
de
predecirme
en
el
lenguaje
natural
en
estas
cuatro
lenguas.
Entonces,
bueno,
engloba
a
otros
cuatro
proyectos,
que
son
"Aina
vives,
Nelgay,
tu
y
nos".
Después,
por
ejemplo,
en
México
tenemos
la
lengua
"Nabot",
que
ya
que
estoy
recomendando
charlas,
reumiendo
una
de
"Shimera
Gutiérrez",
también
de
la
edición
de
los
2022,
en
la
que
nos
contaba
un
poco
sobre
Axolot,
el
proyecto
que
tengo
aquí,
que
crearon
un
cuerpo
paralelo
español-Nahuatl.
Otro
ejemplo,
en
Chile,
en
la
isla
de
Pascua
encontramos
la
civilización
Rapanui
y
también
está
la
comunidad
originaria
Mapuche,
y
ambas
tienen
lengua
propia.
Entonces,
hay
un
proyecto
de
la
CENIA,
la
Universidad
Católica,
la
Academia
de
la
Lengua
Rapanui,
el
Instituto
de
la
Lengua
y
Cultura
Mapuche,
que
está
intentando
pues
lo
mismo,
intentar
crear
más
recursos
de
predecirme
en
el
lenguaje
natural
en
estas
lenguas.
Y
también
algo
bueno
es
que
empezamos
a
ver
en
congresos,
workshops,
diferentes
workshops
sobre
lenguas
indígenas.
Entonces,
bueno,
también
estoy
segura
de
que
aquí
faltan
muchos
proyectos
que
os
invito
a
compartir
conmigo
para
que
las
bañen
y
herindo
esta
idea
positiva
y
también
para
que
les
podamos
dar
más
visibilidad.
Pero
al
final
lo
importante
es
que
aunemos
esfuerzos
para
impulsar
la
IA
en
nuestros
idiomas
y
conseguir
que
tenga
representación
digital,
que
es
realmente
muy
importante.
Entonces,
porque
queremos
modelos
inclusivos,
¿no?
Entonces,
que
necesitamos
datos,
datos
diversos
que
representen
a
los
600
millones
de
personas
hispanohablantes.
Al
final,
todo
en
la
IA
son
datos.
Entonces,
ya
sabemos
que
no
hay
un
tipo
de
magia,
si
no
están
los
datos,
después
el
modelo
no
va
a
ser
capaz
de
generar
texto
en
esa
lengua,
¿vale?
¿Por
qué
queremos
modelos
inclusivos?
Claramente
sabemos
por
qué,
pero
bueno,
dos
razones
más.
Mitigación
de
sesgos
de
todo
tipo
ya
puede
ser
de
generos
y
de
ideología
lingüísticos,
que
es
el
caso
que
estamos
hablando,
que
tú
no
le
preguntes
a
un
sistema
de
IA
algo
en
español
colombiano
y
te
responda
en
un
español,
no
sé,
que
no
se
sabe
qué
tipo
de
españoles,
¿no?
Y
después
otro
punto
importante
es
la
mitigación
de
desigualdades,
porque
que
una
lengua
o
variedad
no
esté
representada,
no
tenga
representación
digital,
realmente
no
va
a
hacer
otra
cosa
que
aumentar
las
frichas
socioculturales
que
ya
suele
haber
en
esos
casos,
¿vale?
Entonces,
necesitamos
datos
para
entrenar
modelos
inclusivos
y
después
que
hacemos
con
estos
modelos,
¿cómo
los
evaluamos?
Porque
es
un,
también
es
un
tema
bastante
importante.
Y
de
hecho,
una
de
las
preguntas
más
comunes
que
nos
hacen
en
el
Discord
de
la
comunidad
es
¿cuál
es
el
mejor
modelo
en
español
para
X?
Y
realmente
no
sabemos
por
quéno
hay
una
líder
board
pública.
O
sea,
ahora
sí
que
es
verdad
que
sabemos
porque
la
gente
de
la
publica
es
resultados
en
ILEAD,
pues
privadas
en
institutos
de
investigación,
en
empresas,
pero
realmente
no
hay
una
pública
que
podamos
utilizar
todos
y
que
tengamos
de
referencia
para
comparar
nuestros
modelos.
Entonces,
necesitamos
una
líder
board
abierta
de
modelos
de
lenguaje
en
español
y
lenguas
oficiales
que
nos
permita
estandarizar
cómo
evaluar
y
comparar
nuestros
modelos.
Pues
eso
para
que
podamos
medir
el
avance
de
la
ILEAD
en
español,
incentivar
también
una
competitividad
sana,
porque
digamos,
mira
yo
he
sacado
un
modelo
que
está
aquí,
pues
entonces
seguramente
la
instituto
de
administración
de
al
lado
o
de
enfrente
de
otro
país,
digo,
pues
yo
voy
a
intentar
a
ver
si
consigo
basándome
en
todo
lo
que
habéis
hecho,
pues
mejoraría,
así
realmente
basaremos
mucho
más
en
comunidad.
Y
claro
importante
que
sea
pública
e
imparcial
para
que
nos
podamos
realmente
fiar
de
esta
líder
board.
Entonces
bueno,
ya
he
presentado
los
dos
objetivos
del
hackathon,
que
son,
pues
uno,
crear
corpus
instrucciones
diversos
que
representan
la
riqueza
de
las
600
millones
de
personas
y
por
hablantes
y
el
segundo,
crear
una
líder
board
abierta
de
modelos
de
lenguaje.
Entonces
como
decía
al
principio,
si
en
las
inscripciones
abiertas
podéis
unir
al
hackathon,
todo
el
mundo
puede
colaborar,
ahora
os
voy
a
decir
un
poco
cómo.
La
idea
es
crear
como
las
ediciones
anteriores
proyectos
que
tengan
impacto
social,
que
estén
relacionadas
con
los
objetivos
de
desarrollo
sostenible
de
la
ONU,
y
además
hay
quinoa
u
cita
yeres
como
los
de
hoy.
Tuvimos
la
primera
quinoa
de
la
semana
pasada
con
el
en
la
González
Blanco
de
Microsoft
y
el
lunes
dos
charlas
con
Gabriel
de
Arjila
y
Manu
Romero
de
Maiza,
en
las
que
por
ejemplo
también
nos
enseñaron
un
ejemplo
de
proyecto
del
hackathon.
Entonces
así
todo
el
mundo
tiene
un
ejemplo
por
el
que
guayarse
y
es
más
fácil
que
gente
que
no
tenga
tanta
experiencia,
así
pueda
también
colaborar
con
esta
iniciativa.
Entonces
vamos
a
ver
cuáles
son
las
dos
maneras
de
colaborar
con
estos
dos
objetivos.
Por
una
parte
está
la
creación
de
este
gran
corpus
que
realmente
sería
el
mayor
corpus
de
instrucciones
hasta
la
fecha
en
español.
Esto
se
hace
por
equipos
de
una
cinco
personas.
Tenéis
que
crear
una
parte
de
ese
gran
corpus,
es
decir,
pues
crear
un
corpus
de
instrucciones
enfocado
a
un
país
determinado,
a
una
tarea
determinada,
una
temática
específica,
vale.
Por
ejemplo,
uno
de
los
propuestos
era
políticas
de
igualdad
de
género.
Entonces
podrías
hacer
políticas
de
igualdad
de
género
en
Chile,
vale.
Por
ejemplo
buscar
un
PDF
correspondiente
a
partir
de
ese
PDF,
crear
una
base
de
datos
de
preguntas
y
respuestas
y
entrenar
un
LLM
a
partir
de
ahí.
Para
crear
el
dataset,
lo
que
decía
el
taller
del
otro
día
de
Gabriel
de
Argila
os
sirve
de
ejemplo
y
cómo
entrenar
el
modelo
pues
el
de
Manu.
Están
ya
ambas
grabaciones
en
el
canal
de
YouTube.
Y
otra
manera
de
colaborar
es
si
ya
tenéis
un
corpus
de
instrucciones
que
habéis
desarrollado
en
vuestra
empresa,
en
vuestra
grupo
de
investigación
donde
sea
lo
podéis
donar,
vale.
Y
estaríamos
muchas
gracias.
Ya
tenemos
un
par
de
corpus
donados,
o
sea
que
muchas
gracias
y
bueno
la
idea
es
recopilar
muchos
más
para
poder
crear
este
gran
corpus
de
instrucciones
diverso
y
de
calidad.
La
otra,
como
el
otro
objetivo
que
tenemos
el
hackathon
es
la
líder,
por
no.
Obviamente
también
aceptamos
donaciones
si
tenéis
corpus
de
evaluación
y
además
estamos
organizando
un
esfuerzo
colaborativo
para
tomar
los
datasets
de
la
leaderboard,
la
famosa
Open
LLM
Leaderboard
de
High
In
Face
que
están
ingles,
traducirlos,
bueno,
traducirlos,
ya
los
tradujo
la
universidad
de
Oregon
y
ahora
lo
que
queremos
hacer
es
que
personas
hispano
hablantes
nativas
verifiquen
que
esas
traducciones
están
bien
hechas.
Entonces,
todo
el
mundo
que
habla
inglés
de
español
puede
colaborar
con
esto.
Con
10
minutos,
vale,
todo
es
suma.Entonces,
al
final
dejo
de
compartir
las
depositivas
y
os
enseñó
cómo
sería
en
un
minutito.
Y
bueno,
aquí
os
dejo
las
dos
enlaces
a
las
bases
del
hackathon,
como
se
puede
participar,
y
a
la
página
para
donar
corpus,
vale.
Bueno,
como
sabéis,
todo
lo
que
creamos
en
el
hackathon
y
en
general
en
la
comunidad
de
somos
en
LP
siempre
es
open
source,
pero
además
queremos
hacer
hincapié
en
que
desarrolléis
proyectos
de
una
manera
responsable,
y
qué
significa
esto?
Pues
que
presteis
atención
a
los
sesgos,
a
los
sesgos
de
uno
y
a
la
documentación,
que
le
encanta
todo
el
mundo.
Que
bueno,
de
hecho
también
este
es
un
tema
que
va
a
ser
bastante
recurrente
en
las
Quinoads
de
hoy,
entonces
bueno,
lo
iremos
viendo
un
poco
más
en
detalle.
Respecto
a
los
sesgos,
lo
que
quiero
decir
es
que,
bueno,
repetir,
realmente
ya
lo
he
dicho
antes,
es
que
la
AIA,
bueno,
los
módulos
del
lenguaje
siempre
dependen
de
los
datos.
Entonces,
¿cuál
es
el
problema
que
están
sesgados?
Tenemos
sesgos,
no
es
una
pregunta
retórica,
no
es
nada,
realmente
es
una
firmación.
Tenemos
sesgos
como
sociedad,
tenemos
sesgos
inconscientes,
tan
inherentes,
ya
están
escritos
en
las
noticias,
en
las
páginas,
en
los
libros,
y
el
tema
es
que
nosotros
recogemos
todo
esto,
porque
necesitamos
muchos
datos
para
entrenar
nuestros
módulos,
cogemos
todo
esto
y
los
utilizamos
para
entrenar.
Entonces,
los
modelos,
pues
esos
son
interés
artificial,
aprenden
los
patrones
y
también
aprenden
conductas
racistas,
homófobas
o
de
cualquiera
de
las
discriminaciones
que
tristemente
están
presentes
de
hoy
en
día
en
nuestro
mundo.
Entonces,
bueno,
es
el
famoso
garbage
in,
garbage
out.
Hay
que
ser
simplemente
conscientes
de
ello,
intentar
detectarlos
con
dentro
de
nuestras
posibilidades,
de
hecho,
en
la
Quinoa
de
después
veremos
algunos
maneras
de
detectarlos
automáticamente
y
mitigarlos,
si
también
dentro
de
lo
que
podamos.
Igualmente,
si
no
les
podemos
mitigar,
lo
más
importante
es
escribirlo,
que
la
gente
que
vaya
a
utilizar
nuestro
modelo
después
sepa
cuáles
son
esos
sesgos
para
después
ver
para
que
casos
de
uso
puede
utilizar
ese
modelo,
¿vale?
Para
intentar
siempre,
pues,
evitar
promover
ideas
discriminatorias
o
contribuir
a
perpetación
de
estereótipos.
Otra
notación,
ojo
a
la
huella
de
carbono,
también
ahora
se
ha
puesto,
están
bastante
de
moda,
el
hecho
de
hablar,
no
de
moda,
no,
pero
está
llamando
más
de
tradición
la
huella
de
carbono
de
los
modelos
de
interacción
artificial.
Entonces,
también
dentro
de
lo
que
podamos,
porque
no
siempre
tenemos
mucho
poder
de
decisión
sobre
estos
temas,
sí
que
podemos
intentar
disminuirla
dentro
de
nuestras
posibilidades,
¿no?
¿De
qué
depende
en
general?
Del
tipo
de
energía,
obviamente,
si
utilizamos
energía
renovable,
todo
bien.
De
las
regiones
de
computación,
o
sea,
al
final,
cuando
utilizamos
en
cualquier
servidor,
solemos
poder
elegir
en
qué
región
van
a
estar
las
máquinas
que
vamos
a
utilizar,
entonces,
si
elegimos
regiones
con
menos
emisiones,
pues
mucho
mejor.
Y
después,
las
GPUs,
a
ver
si
las
utilizamos
de
manera
deficiente
y
sobre
todo
el
100%
del
tiempo
que
no
las
tengamos
ahí
corriendo
sin
hacer
nada.
Y
el
tiempo
de
entrenamiento,
obviamente.
Ahora,
antes
se
entrenaban
modelos
en
unas
horas
y
ahora
cada
vez
son
semanas,
meses.
Entonces,
bueno,
utilizar
modelos
pre-entrenados
no
hace
falta
remediar
la
rueda.
Podemos
coger
un
modelo
pre-entrenado
ya
por
una
potencia
durante
muchísimo
tiempo
con
muchísimos
datos
y
después
adaptar
a
nuestra
casa
de
uso.
Y
sobre
todo,
que
esto
sí
que
lo
puede
hacer
todo
el
mundo,
antes
de
entrenar
el
modelo
grande,
el
principal,
digamos,
hacer
pruebas
para
ver
que
en
vuestro
script
está
todo
bien
y
que
no
os
enteréis
después
de,
no
sé,
cuántas
horas
de
entrenamiento
que
había
un
fallo
ahí
en
una
línea
de
código
perdida
por
el
Colab.
Y
por
último,
la
documentación.
Estoy
muy
pesada
con
esto,
pero
realmente
un
modelo
sin
documentación
es
inútil.
Podéis
haber
entrenado
el
mejormodelo
en
Ketchuo,
vale,
el
mejor
modelo,
pero
que
simplemente
si
no
creáis
documentación,
si
no
ponéis
las
evaluaciones,
cómo
se
ha
creado
entrenado,
tal,
nadie
lo
va
a
encontrar
y
nadie
lo
va
a
utilizar.
Entonces,
estará
pues
ahí
hecho
el
trabajo
en
vano
realmente,
vale.
Y
además,
me
encanta
esto
también.
Tampoco
es
que
haya
muchas
más
excusas
porque
cuando
se
apruebe
el
realmente
de
la
de
IA,
de
la
Unión
Europea
también,
esto
va
a
ser
un
requerimiento.
Entonces,
empecemos
ya.
Vemos
mucha
importación
a
la
documentación.
Podéis
crear
model
cards
que
se
llaman
en
Hi-In
Face
de
manera
muy
sencilla.
Ya
hay
spaces
para
hacerlo
automáticamente,
te
rellana
muchos
campos.
Entonces,
bueno,
no
dudéis
por
favor
en
compartir
todo
lo
que
sepáis
sobre
vuestro
modelo
para
que
la
gente
que
lo
vaya
a
utilizar
después
tenga
cuenta
más
información
mejor.
Y
ya
está.
Os
dejo
aquí,
bueno,
la
página
de
Hackathon
y
en
Discord,
si
todavía
no
estáis,
os
podéis
unir.
Hay
una
invitación
en
la
descripción
del
vídeo.
Los
canales
importantes
serían
en
el
anuncio,
donde
anunciamos
todo.
Encuentra
equipos
y
os
vais
a
unir
todavía
ahora
al
Hackathon,
pues
ahí
podéis
encontrar
un
equipo,
formar
un
nuevo,
lo
que
sea,
y
pide
ayuda.
El
canal
favorito
por
excelencia,
pues
si
necesitáis
ayuda
con
lo
que
sea,
podéis
salir
ahí
una
entrada
en
el
foro,
este
tipo
foro,
ese
canal
y
pues
alguien
de
la
comunidad
os
ayudará.
Entonces,
ahora
voy
a
dejar
de
compartir
esto
y
voy
a
compartir
rápidamente.
Aquí
lo
da
Argila
para
que
veáis
lo
rápido
que
es.
Simplemente
aquí,
image
marker
notation
Argila,
podéis
encontrarlo
en
nuestra
página.
Vale,
se
os
abre
esto.
Entonces,
le
dais
a
click,
tenemos
tres
data
6
que
podéis
anotar,
podéis
elegir
el
que
sea,
realmente
cualquiera.
El
primero,
por
ejemplo,
y
entonces
aquí
veis
que
hay
pregunta
original.
Bueno,
which
renewable
resource
is
generated
by
air-confection
currents?
Básicamente.
La
traducida,
qué
recursos
renovables
generado
por
corrientes
de
comisión
de
aire,
está
bien,
está
bien.
La
calidad
de
traducción
de
la
pregunta
es
buena.
Siguiente,
las
opciones,
no
las
veré
en
inglés
otra
vez,
es
muy
raro
cambiar
de
idioma
así,
pero
vemos
que
son
energía
ebólica,
solar,
bien,
fossil,
fossil
es
fósiles
y
geotérmica.
Traducción
de
las
opciones
también,
buena,
perfecto.
¿Qué
hubiese
pasado
si
por
ejemplo,
esta
hubiese
estado
traducida
mal?
Pues
lo
podemos
copiar.
Imaginaos
que
esto
era,
no
sé,
pues
era
térmica,
realmente
estaba
mal
traducido.
Entonces
lo
corregimos
aquí
y
le
damos
a
submit.
Pero
bueno,
está
como
estaba
bien,
no
hace
falta,
le
damos
a
submit
y
ya
estaría,
ahí
vamos
a
la
siguiente.
Podéis
por
ejemplo
aquí
decir,
me
parece
hacer
cosas
de,
no
sé,
no
sé
si
me
va
a
salir
algo,
sumas
o
restas.
Mira,
por
ejemplo,
pues
suma.
Pues
ya
está,
quiero
filtrar
por
algún
tipo
de,
no
sé,
temáticas,
si
os
gusta
biología,
geología,
matemática,
es
lo
que
sea.
Filtráis
por
texto
aquí,
no
por
temática.
Pero
bueno,
y
si
no,
pues
simplemente
vais
pasando
por
aquí
hasta
que
os
canséis
y
ya
está.
Y
donde
podemos
ir
mirando
cómo
evolucionan
todo
este
esfuerzo
es
en
el
dashboard.
Que
básicamente
aquí
vemos,
hemos
anotado
395
entradas
de
2000
de
este
data
set,
lo
primero
que
es
el
que
abierto
yo.
Gelato,
ahora
hay
36
y
MMLU
por
299.
Y
también
vemos
al
HoloFame,
vale,
que
aquí
este
usuario
beta
3
está
increíblemente
ganando
todo
el
mundo.
Pero
bueno,
a
todo
el
mundo,
pues
eso
os
animamos
a
que
aunque
vayáis
a
enviar,
pues
eso
una,
tres,
diez,
de
igual.
Así
que,
ayuda
muchísimo,
ayuda
muchísimo,
vale.
Entonces,
ya
habéis
visto
que
no
se
tarda
nada,
si
sabéis
inglés
y
español
podéis
apoyar
ahí
un
poquito.
Y
nada,
hasta
aquí
la
primera
keynote,
ahora,
pues
nos
vemos
en
la
siguiente,
empieza
en
8
minutos
y
media,
se
ve
sesgos,
detección
automática
de
sesgos
en
medios
de
comunicación.
Y
el
enlace
está
también
en
la
descripción
del
vídeo
para
que
no
tengáis
que
buscarlo
por
ahí.
Muchas
gracias
y
nos
vemos
en
un
ratito.
[MÚSICA] | María Grandury |
Detección automática de sesgo en medios de comunicación, Francisco Rodrigo @UNED | #Somos600M | Hola
a
todo
el
mundo,
continuamos
con
el
primer
día
de
Keynotes
de
nuestro
hackathon
"Somos
600M".
Como
sabéis
los
objetivos
de
la
iniciativa
son
crear
recursos
diversos,
abiertos
y
de
calidad
de
procesamiento
de
lenguaje
natural
en
español
y
en
lenguas
oficiales.
Como
dije
antes
las
creaciones
siguen
abiertas,
todo
el
mundo
puede
colaborar
independientemente
de
vuestros
conocimientos
en
inteligencia
artificial
y
también
algo
para
lo
que
está
muy
bien
el
hackathon
es
que
tenemos
Keynotes
abiertas
a
todo
el
mundo
independientemente
de
si
participa
eso
o
no,
como
las
de
hoy
con
especialistas
en
diferentes
temas
de
procesamiento
de
lenguaje
natural.
Entonces
hoy
nos
centramos
más
bien
en
el
PLN
responsable
y
empezamos
hablando
de
detección
de
sesgos
en
medios
de
comunicación
con
Francisco
Javier,
Rodrigo
Ginés.
Fran,
para
los
amigos,
es
ingeniero
informático
por
la
Universidad
de
Jaén,
es
estudiante
de
doctorado
en
el
grupo
de
investigación
de
la
UNED
sobre
PLN
y
recuperación
de
información
desde
el
año
2020
y
centra
su
tesis
doctoral
en
la
detección
de
sesgos
en
los
medios
de
comunicación,
además
trabaja
como
jefe
de
equipo
y
consultor
en
ciencia
de
datos
en
T-Systems,
Iberia.
Su
experiencia
abarca
tanto
el
ámbito
académico
como
el
profesional
en
la
industria
de
las
tecnologías
de
la
información
y
la
comunicación.
O
sea
que
es
una
persona
perfecta
para
hablarnos
hoy
de
detección
de
sesgos
y
bueno
la
verdad
es
un
honor
tenerte
aquí
Fran,
muchas
gracias
y
tengo
muchísimas
ganas
como
te
decía
antes
de
aprender
más
sobre
sobre
tu
tesis,
así
que
todo
tuyo
comparto
tus
diapositivas
y
valante.
Antes
de
nada,
bueno
agradecer
la
presentación
y
el
placer
es
mío
en
participar
y
en
aportar
mi
granito
de
arena
en
una
comunidad
tan
interesante
y
tan
necesaria
como
es,
somos
un
elefante,
así
que
encantado
de
estar
aquí.
Gracias.
Bueno
pues
empezamos
con
la
presentación.
En
esta
presentación
voy
a
hablar
sobre
distintos
enfoques
y
soluciones
que
suisten
para
detectar
automáticamente
el
sesgo
mediático
o
el
sesgo
en
medios
de
comunicación.
Esta
presentación
viene
a
resumir
un
poco
pues
todo
el
trabajo
que
estoy
haciendo
en
mi
doctorado
en
el
sistema
inteligente
por
la
alma,
trabajo
con
Jorge
Garrillo
de
Albornaus
y
Laura
Plaza
que
son
mis
directores
del
tesis
y
bueno,
ellos
también
son
investigadores
del
grupo
de
investigación
entre
el
cementerismo
natural
y
recuperación
de
información
de
los
medios.
Esta
presentación
está
dividida
entre
grandes
bloques
principalmente,
el
primer
bloque
es
más
introductorio,
veremos
qué
es
la
desinformación
y
qué
es
el
sesgo
mediático,
también
veremos
cómo
se
puede
clasificar
el
sesgo
mediático,
tanto
por
qué
tipos
de
sesgos
existen,
cómo,
en
qué
formas
se
manifiesta.
El
segundo
bloque
está
más
centrado
en
recursos,
veremos
qué
recursos
existen
a
día
de
hoy,
porque
es
necesario
crear
recursos
en
idiomas
distintos
al
inglés
y
cómo
estamos
creando
nosotros,
nosotros
propios.
Y
por
último
y
brevemente
veremos
qué
métodos
hemos
utilizado
nosotros
ya
para
detectar
y
caracterizar
sesgos
en
medios,
un
modelo
basado
en
clasificación
encastada
y
muy
brevemente
pues
el
trabajo
que
estamos
haciendo.
Entonces,
empezando
por
la
introducción,
creo
que
todos
somos
conscientes
de
que
la
desinformación
es
uno
de
los
grandes
problemas
de
nuestra
era
y
es
uno
de
los
grandes
problemas
de
nuestra
era
porque
primero,
impide
un
correto,
un
sano
debate
público
en
la
sociedad
y
segundo,
genera
mucha
polarización.
Creo
que
todos
somos
conscientes
de
que
cada
día
estamos
más
polarizados
y
no
sentados
como
sociedad,
con
el
peligro
que
esto
convierta,
correto
el
funcionamiento
de
cualquier
democracia,
de
cualquier
sociedad
democrática.
La
desinformación
normalmente
se
define
como
información
errónea
que
se
da
generalmente
de
manera
intencionada
y
se
puede
propagar
por
muchos
medios,
se
puede
propagar
por
redes
sociales,
medios
de
comunicación,
aplicaciones
de
mensajería,
grupos
privados,
etc.
La
gentecuenta,
ya
andan
se
nombrados,
son
muy
grandes
porque
por
ejemplo,
la
nivel
social
genera
polarización
y
estigmatización
en
la
sociedad
a
nivel
político,
pues
se
incluye
mucho
en
la
percepción
de
los
ciudadanos
y
llega
a
incluir
en
los
resultados
de
las
ciudadanas
democráticas
y
a
nivel
sanitario.
Creo
que
ya
lo
vimos
todos
durante
la
pandemia
del
COVID
como
se
propagaban
información
falsa
o
mitos
tanto
de
la
propia
enfermedad
como
de
los
tratamientos
y
de
las
vacunas.
La
desinformación
digamos
que
es
un
problema
bastante
amplio
como
para
ser
abordado
de
una
única
perspectiva,
es
por
eso
que
normalmente
se
divide
en
sus
problemas
también
grandes,
uno
de
ellos
y
mi
conocido
son
las
Tech
News,
otro
es
la
Preparandum,
el
contenido
satirico,
el
contenido
Facebook
y
el
CSCO
en
medio
de
comunicación
que
es
de
lo
que
estamos
trabajando
en
la
investigación
y
de
lo
que
va
esta
presentación.
Cuando
hablamos
de
medios,
decimos
que
tienen
una
gran
influencia
en
la
opinión
de
la
ciudadanía,
en
la
opinión
pública,
pero
pasa
una
cosa
curiosa,
con
la
proliferación
de
las
plataformas
digitales
todos
tenemos
acceso
a
más
medios,
a
más
noticias,
a
más
información,
pero
contrariamente
a
lo
que
podría
ser
lógico,
tenemos
acceso
a
más
información
pero
cada
día
estamos
menos
informados.
Este
problema
se
ve
grabado
por
lo
que
se
conoce
como
burbujas
informativas.
Estas
burbujas
informativas
se
producen
por
los
sistemas
de
recomendación
que
hacen
que
solo
consumamos
y
leamos
contenido
que
viene
a
validar
los
prejuicios
y
ideas
que
ya
teníamos
previamente,
lo
cual
genera
aún
más
o
la
habitación.
Esto
se
ve
agravado
si
además
de
solo
leer
noticias
que
vienen
alineándose
con
nuestra
perspectiva,
si
estas
noticias
además
están
cercadas.
Pero
¿qué
es
el
sergo
mediático?
Bueno,
aquí
tenemos
una
definición
bastante
completa,
pero
también
bastante
verbosa
de
lo
que
es
el
sergo
mediático.
Esta
definición
básicamente
se
puede
explicar
o
resumir
en
tres
puntos
importantes.
Primero,
el
sergo
mediático
es
el
tratamiento
y
el
susto
por
parte
de
los
medios
de
comunicación
de
información
que
llega
al
receptor
a
la
ciudadanía.
Segundo,
este
tratamiento
injusto
se
puede
manifestar
tanto
en
el
lenguaje
como
en
la
cobertura
que
hacen
los
medios
de
comunicación
de
los
distintos
eventos
o
temas
que
suceden.
Y
tercero,
este
sergo
mediático
tiene
lo
que
es
muy
importante.
Una
grave
implicación
en
la
sociedad
ya
que
da
una
visión
listosionada
de
lo
que
está
sucediendo
en
el
día
a
día,
la
cual
afecta
en
otras
decisiones
de
la
sociedad,
de
la
ciudadanía,
de
las
personas.
El
sergo
mediático
normalmente
se
puede
clasificar
según
dos
tipos.
Se
puede
clasificar
según
la
intención,
por
lo
tanto
no
encontramos
con
dos
tipos
de
sergos,
el
sergo
de
tipo
giro,
el
sergo
intencional
o
ideológico.
El
sergo
de
tipo
giro
sucede
cuando
un
periodista
o
medio
de
comunicación
intenta
crear
una
historia
llamativa
y
termina
utilizando
un
lenguaje
efectivamente
emocional
o
exagerado.
Creo
que
aquí
en
España
todos
tenemos
presente
al
presentador
de
telediarios
que
utilizaba
objetivos
como
terrible,
apocalípticos,
dan
textos,
eso
es
un
ejemplo
de
sergo
de
tipo
giro
o
spin.
Y
luego
tenemos
el
sergo
intencional
o
ideológico
en
el
que
el
medio
del
autor
está
deliberadamente
presentado
en
la
información
de
manera
injusta,
con
el
fin
de
incluir
o
manipular
al
sector.
Es
continuando
tipos
según
la
intención.
Según
el
contexto
tenemos
tres
tipos
de
sergos
mediáticos,
el
sergo
de
declaración
o
de
presentación
que
está
en
el
propio
lenguaje,
se
reflejan
la
gramática
y
en
la
elección
de
palabras
que
forman
la
noticia.
Está
el
sergo
de
cobertura
que
se
refiere
a,
vale,
dado
un
tema
o
una
entidad,
cuánta
información
produce
en
medio
de
ese
tema,
cuánta
visibilidad
le
está
dando.
Y
tenemos
el
sergo
por
control
de
contenidos
que
es
cuando
el
medio
de
comunicación
decide
no
hablar
de
ese
sergo.
Esa
es
el
tipo
de
sergos.
Hemos
visto
los
tipos
de
sergos,
veamos
también
las
formas
en
las
que
estesergo
puede
manifestar,
sobre
la
parecer.
Nosotros
hicimos
una
revisión
sistemática
de
la
literatura,
tanto
de
una
perspectiva
de
ciencia
de
comunicación
como
de
una
perspectiva
de
ciencia
de
la
computación
y
hicimos
una
lista
de
estas
17
formas
de
sergos,
o
sea,
17
manifestaciones
de
sergos.
Hoy
no
tenemos
tiempo
para
ver
las
cosas,
así
que
lo
que
he
preparado
ha
sido
tres
ejemplos
para
ver
distintas
formas
de
sergos.
Por
ejemplo,
este
ejemplo
de
el
líder
de
la
oposición,
un
peligroso
de
la
dogo,
busca
desastabilizar
el
país
en
secretuestas
radicales,
pasaría
una
frase
sesgada.
Y
se
dio
una
frase
sesgada
porque
está
presentando
opiniones
como
esto.
Tiene
un
sergo
de
tipo
SLAM,
que
es
cuando
el
periodista
se
posiciona
de
un
lado
de
la
noticia
de
manera
muy
estresada
para
aportar
su
visión,
pero
de
una
manera
esústa.
Tiene
también
sergo
por
etiquetado
y
elección
de
palabras,
lo
que
llama
de
maud
al
político
de
turno
y
también
pues
aceptivos,
gelificativos,
subjetivos.
Como
vemos,
una
sola
frase,
una
sola
grabación,
un
solo
documento,
puede
tener
distintos
tipos
de
formas
de
sergos
mediáticos.
Otro
ejemplo,
expertos
afirman
que
la
nueva
política
económica
será
un
éxito
retorno.
Este
tipo
de
sergo,
esta
forma
de
sergo
yo
la
leo
constantemente
en
todos
los
medios,
y
es
la
forma
por
omisión
de
atribución
de
fuentes.
Es
cuando
afirman
que
alguien
dice
algo,
alguien
opina
algo,
alguien
aporta
esa
información,
pero
no
dicen
bienes.
Pues
en
esta
frase
no
sabemos
quiénes
son
los
expertos
que
afirman
que
la
política
económica
será.
Y
este
tercer
ejemplo,
esto
es
una
imagen
que
contiene
tres
tipos
de
sobrevivos.
Tiene
sergo
por
sensacionalismo,
cuando
habla
de
coronacados
grandes.
Tiene
sergo
por
etiquetado
y
elección
de
palabras,
especialmente
grabos
cuando
le
llaman
al
COVID
el
virus
chino.
Y
también
tiene
sergo
por
selección
de
imágenes,
por
las
elecciones
imágenes
que
está
haciendo.
Digamos
que
estas
17
formas
de
sergos
son
multimodales,
no
solo
afectan
al
lenguaje
en
sí,
sino
también
afectan
a
las
imágenes
que
aparecen
en
la
noticia,
y
el
tamaño
que
tiene
las
imágenes,
el
tamaño
que
tiene
el
texto,
la
posición
del
texto
en
dentro
de
periodico
web,
etcétera.
Bueno,
y
ya
para
que
me
den
la
introducción,
como
he
dicho
antes,
nosotros
hicimos
un
plazo
de
revisión
sistemática
de
la
literatura,
tanto
de
una
perspectiva
más
de
periodismo
como
de
una
más
técnica.
Y,
bueno,
el
resultado
de
ese
trabajo
publicamos
un
artículo
en
la
revista
"Existence
with
application",
en
la
que
definimos
también
la
taxonomía
que
vemos
en
pantalla.
En
esta
taxonomía
lo
que
nos
permite
es
relacionar
los
distintos
tipos
de
sergos
mediáticos
con
las
formas
en
las
que
se
manifiesta
el
sergo.
Esto
ya
lo
veremos
ahora
a
continuación.
Estamos
teniendo
en
cuenta
ahora
de
crear
nuestro
propio
trabajo.
Que
es
justo
lo
que
vamos
a
hablar
ahora.
En
este
mismo
trabajo,
en
este
mismo
revisión
sistemática,
hicimos
el
trabajo
de
identificar
qué
data
set
de
corpus
existen
ahora
mismo
relacionados
con
el
sergo
mediático.
Como
he
dicho
en
principio,
la
disinformación
es
un
problema
grande
y
que
tiene
distintos
subproblemas.
Por
ejemplo,
las
"pecnews"
tienen
muy
proliferaturas
y
muchas
retusos
disponibles,
no
tanto
el
sergo
en
medio
de
comunicación.
Nosotros,
a
lo
que
nos
encontramos,
son
por
el
conjunto
de
casi
20
data
sets
con
18
subdominativos
y
cada
uno
con
sus
particularidades.
Pero
sí
es
cierto
que
existen
un
problema
y
es
que
estos
cerca
de
20
data
sets
están
centrados
en
un
dominio
y
un
contexto
esográfico
específico
muy
atotado.
Principalmente,
la
gran
mayoría
son
la
EPCA
estadounidense
y
de
un
ámbito
de
un
dominio
político.
Esto
hace
que
cualquier
sistema
que
se
entrene
con
estos
data
sets
no
sea
capaz
de
desanmigarizar
bien
el
sergo
fuera
de
ese
ámbito
y
este
"compensado".
Aquí,
por
ejemplo,
un
sistema
internado
con
un
caso
entre
data
sobre
política
en
mayor
estado
de
dominio
no
podría
generalizar
bien
el
sergo
en
medios
españoles.
Esto
lo
que
hemos
visto
en
la
presentación
desenadillas
antes,
de
la
importancia
de
la
riqueza
para
evitar
que
el
sistema
que
nos
encontramos
es
la
forma
en
la
que
se
manifiesta
el
sergo
en
las
noticias.
Son
las
mismas
entre
el
mundo,
pero
las
diferencias
culturales,
lingüísticas,
políticas,
sociales
hacen
que
sean
trabajos
muy
atentos
a
la
hora
de
construir
recursos,
a
la
hora
de
construir
recursos.
Y
nosotros,
como
seguimos
esto,
somos
manuelagras
y
empezamos
a
crear
nuestro
propio
data
set.
El
data
set
se
llama
"NBD-CM",
acá
viene
a
publicar
media
bias,
bias,
data
sets,
intentar
hacer
un
data
set
de
sergo
mediático
para
ahora
en
español,
intentando
multiplicar
para
el
más
posible
los
sergos.
Y
este
data
set
digamos
que
se
fundamenta
en
los
propilares
principales.
Primero,
cada
noticia
está
anotada
dentro
de
un
contexto
dado,
ahora
explica
de
cuál
es
este
contexto.
Segundo,
el
que
creo
que
estamos
generando
es
cerárquico,
que
lo
que
viene
significado
básicamente
es
que
sigue
la
taxonomía
que
es
deficiente,
que
el
cero
estamos
aplicando
técnicas
para
multiplicar
al
máximo
posible
el
efecto
de
este
curto.
Y
por
último,
estamos
siguiendo
un
"soque"
para
quien
le
conozca
este
término,
pues
le
explicaré
ahora
continuamente.
En
cuanto
a
noticias
anotadas
dentro
de
un
contexto
dado,
aquí
tenemos
un
ejemplo
de
una
noticia
real,
que
habla
sobre
elecciones
en
tortura.
Una
notadora,
al
que
le
damos
esta
noticia,
puede
ser
capaz
de
identificar
si
existe
CESBU
por
declaración,
se
despecian
las
lenguages,
se
está
tratando
de
información
en
la
enocista,
y
es
capaz
de
caracterizar
este
CESBU
como
intencional
con
este
"homba".
Pero,
¿cómo
puede
identificar
o
la
notadora
si
se
está
produciendo
CESBU
por
cobertura
o
se
está
controlando
el
contenido?
¿Cómo
puede
decir
una
notadora
si
en
medio
está
hablando
demasiado
de
un
tema
o
demasiado
de
hecho,
o
directamente
no
está
hablando
de
un
tema
insensito?
Para
eso,
nosotros
lo
que
planteamos
es
que
una
notadora
que
anote
una
noticia
tiene
que
haber
leído
previamente
otra
"n"
noticia.
En
nuestro
caso
hemos
definido
que
dado
una
noticia
tiene
que
haber
leído
otra
"nueve
noticias"
que
reforzan
el
mismo
hecho
de
evento
y
que
tengan
y
que
se
pertenezcan
a
un
lapso
de
tiempo
similar.
De
cada
anote
la
notadora
tenga
un
contexto
de
lo
que
ha
sucedido
y
sea
capaz
de
discernir
si
lo
que
está
leyendo
está
emitiendo
o
comisionando
información
o
directamente
está
enviando
el
cierto
sistema.
Segundo,
en
cuanto
a
la
erarquía
del
corpus,
básicamente
lo
que
estamos
siguiendo
es
la
tazonomía
que
vimos
antes.
El
dataset
está
anotando
a
tres
niveles.
El
primer
nivel
consiste
en
una
reasificación
binaria
y
a
nivel
documental
en
el
que
decimos
que
todo
el
contenido
está
cerrado.
Imaginemos
que
sí
lo
está.
El
segundo
nivel
son
un
par
de
clasificaciones,
uno
por
cada
tipo
de
desesto,
de
la
intención
y
de
algún
contexto.
Estas
son
clasificaciones,
multiplicaciones
y
multiplicaciones.
En
el
que
estamos
anotando
se
ve
la
intención,
este
tipo
de
spin
es
intencional.
El
seco
se
ve
como
este
tipo
de
declaración,
de
cobertura
o
de
control
de
contenido
o
una
combinación
de
vuestras
alero.
En
este
caso
se
ve
como
este
contenido
se
sabe
como
el
que
se
está
anotando
y
el
delisso
es
igual
de
declaración
y
de
control
de
contenido.
Una
buena
interpretación,
esta
nivel,
esta
clasificación
depende
de
lo
que
se
haya
anotado
en
el
nivel
previo.
Es
decir,
solo
se
anotará
estas
clases,
estas
repisetas,
si
previamente
se
han
anotado
toda
la
noticia
como
si
se
han
anotado
que
no,
obviamente
que
esto
no
aplicaría.
Y
por
último,
el
tercer
nivel,
que
es
una
clasificación
multiláfea
y
multiotiqueta
y
no
hasta
el
nivel
documental,
es
a
nivel
de
declaración.
Por
cada
grabación
anotamos
las
formas
de
desesto
que
nos
afectemos
que
están
apareciendo.
Importante,
esta
clasificación
no
depende
de
las
clasificaciones
previas,
porque
en
nuestra
opinión
un
artículo
no
sesgado
puede
contener
operaciones
que
sí
las
tienen.
Un
artículo
en
su
gran
mayoría
está
tratando
de
formación
de
una
manera
justa,
pero
tiene
ciertasclases
como
tiempo
salvo,
pero
que
no
influye
en
la
valoración
global
del
segundo.
Por
ejemplo,
en
esta
noticia
la
valoración
en
el
segundo
tiene
sesgo,
en
la
valoración
en
el
segundo
tiene
sesgo
sensacionalismo,
el
rey
de
los
objetivos
genocidivos,
etcétera.
El
tercer
pilar
es
importante.
Técnica
para
metidar
el
segundo.
Primero,
estamos
intentando
metidar
el
sesgo
a
la
hora
de
seleccionar
noticias.
Como
ya
explicaba
antes,
una
noticia
se
anotan
valores
y
contextos,
dado
o
tras
nueve
noticias.
La
elección
de
qué
noticias
mostrarlo
al
nuevo
pared
es
muy
importante.
De
cara
a
que
no
seamos
nosotros
los
que
alijamos
aleatoriamente
esa
noticia
volviendo
previamente,
lo
que
hicimos
fue
buscar
una
metodología
que
nos
permitía
hacerlo
según
una
racionalidad.
Nos
encontramos
con
esta
metodología
con
esta
gráfica
de
una
empresa
llamada
Act.SenseMedia,
la
cual
mide
los
200
medios
de
comunicación
en
el
estado
de
España
según
su
asgado
de
escen,
que
es
la
exa
horizontal,
y
en
el
servicio,
cuán
fíales
son.
Nosotros
estamos
intentando
esta
metodología
para
seleccionar
noticias.
¿Y
cómo
lo
hacemos
por
cada
noticia?
Nos
estamos
haciendo
una
noticia
simétrica
en
el
eje
de
X
que
tiene
que
ver
con
el
estado,
hacia
qué
lado
está
el
estado
mejor
dicho,
ese
medio.
En
este
ejemplo,
si
cocemos
una
noticia
del
medio
del
mundo,
cocemos
el
plan
del
diario.es,
que
es
el
medio
que
está
simétrico
en
respecto
al
escenario.
Si
cocemos
una
noticia
del
medio
público,
cocemos
la
otra
de
la
gráfica,
y
se
está
poniendo
la
noticia,
pues
a
veces,
en
el
año
de
dos
décadas,
son
los
medios
que
son
simétricos,
o
sea,
en
medio
personal.
De
esta
manera,
intentamos
que
nos
sean
nuestros
propios
sets,
como
creadores
del
data
set,
los
que
incluyen
en
el
data
set
de
enciencia.
Además
de
esta
idea,
también
utilizamos
una
técnica
que
se
llama
"Tempercial
Data
Augmentation"
para
mitigar
los
sesgos
que
ponen
en
la
urna
el
caso
de
la
matada.
El
Temporcial
Data
Augmentation,
a
finales,
es
una
técnica
que
permite
crear
sustancias
sintéticas,
modificando
aspectos
de
sustancias
originales.
Un
ejemplo
de
uso
que
bien
se
está
esperando
en
el
data
set,
en
el
caso
de
análisis
de
sentimientos,
y
teniendo
una
clase
para
una
persona,
cambiamos
el
tenedor
de
la
persona
de
cara
a
evitar
los
efectos
de
sentimientos.
¿Cómo
estamos
aplicando
esto
en
noticias?
Lo
estamos
aplicando
de
dos
maneras.
Cambiando
entidades,
es
decir,
dado
una
noticia
de
un
medio,
pues
esa
noticia
está
hablando
de
una
persona,
pues
cambiarla
por
otra
persona.
Pues
si
una
noticia
está
hablando
de
todos
antes,
pues
cambiar
las
entidades
y
su
referencia
por
Facebook,
por
ejemplo,
de
políticos
de
la
comunidad.
La
otra
manera
en
la
que
lo
estamos
haciendo
es
cambiando
el
medio,
es
decir,
mantenemos
el
texto
y
lo
dimos
que
el
periodo
y
que
está
introducido
esa
noticia
es
otro.
¿Para
qué
hacemos
esto?
Pues
para
dos
motivos
principales.
Primero,
evitar
el
texto
en
la
notación
y,
segundo,
evaluar
a
nuestros
anotadores.
Ver
si
esto
que
estamos
haciendo
afecta
más
los
prejuicios
de
anotadores
expertos
o
afecta
más
los
prejuicios
de
anotadores
tipo
crowdsourcing.
Y
bueno,
aquí
tenemos
un
ejemplo
de
una
noticia
en
la
que
salió
la
entidad
de
Ayuso
y
la
cambió
los
propios
sentimientos,
una
noticia
que
ha
constituido
el
del
medio
a
veces
y
decimos
que
es
de
alto
diario.
Y
por
último,
el
cuarto
pilar
es
el
perspectivismo
en
el
proceso
de
negocio
natural,
en
el
cual
estamos
anotando
el
dataset
con
un
paradigma
de
Learning
with
Designers.
Es
decir,
en
vez
de
estar
buscando
la
verdad
absoluta
en
cuanto
a
la
notación,
buscar
el
doble
level,
estamos
viendo
que,
bueno,
cada
anotador
puede
tener
su
perspectiva
más
aún
en
una
cosa
tan
subjetiva
como
son
los
propios.
La
información
que
decidimos
desde
los
medios
de
comunicación.
A
final
lo
que
estamos
haciendo
es
no
anotar
una
clase
mayoritaria
por
cada
distancia,
sino
anotar
cada
una
de
las
anotaciones
de
nuestros
anotadores
y
información
sobre
la
notación,
su
edad,
su
género,
suformación
y
una
o
todo
evaluación
que
se
hace
para
conocer
su
costura
política.
Y
yo
lo
que
recomiendo
es,
si
queréis
más
información
sobre
perspectivismo
y
concretamente
evaluación
con
desacuerdentar
la
subjetiva,
el
año
pasado
se
hizo
un
aquino
muy
interesante
por
parte
de
Julio
González,
pongo
un
QR
por
si
queréis
hacer
alias.
Y
por
último,
y
muy
rápido,
en
cuanto
a
métodos
de
enfoque,
nos
estamos
encontrando
el
problema
del
que
hablé
antes,
¿no?
La
información
que
existe
está
en
batallas
en
contextos
geográficos
y
dominios
muy
concretos.
Por
lo
tanto,
cuando
validamos
los
sistemas
que
entrenamos
con
las
diferencias
de
las
datas,
en
contextos
y
dominios
distintos,
no
estamos
generalizando
bien.
No
estamos
capturando
las
formas
de
ser
comedióticos,
sino
estilos
periodísticos
y
profesionales,
digamos.
A
esta
conclusión
llegaron
una
investigación
de
Estados
Unidos,
¿no?
Que
hagan
un
data
source
con
noticias
de
España,
Rusia
y
otros
países
sobre
la
invasión
del
Dendombás
y
se
hubieron
cuento
de
que
cuando
entrenaban
con
noticias
de
un
país
y
validaron
con
noticias
de
otros,
pues
el
rendimiento,
la
bandada
del
modelo
era
muy,
muy
baja.
Entonces,
nuestra
hipótesis
para
solventar
este
sistema
son
dos.
Primero,
es
necesario
crear
conjuntos
de
datos
diversos
y
que
abarquen
distintos
también
en
los
contextos
y
también
en
la
mayoría
idioma.
Y
segundo,
es
necesario
abordar
el
problema
no
intentando
clasificar
una
noticia
como
se
ha
dado,
sino
identificando
la
forma
de
ser
comediótico
que
están
apareciendo,
¿no?
Que
eso
es
lo
que
hicimos.
Entonces,
para
hacerlo
lo
que
hicimos
fue
hacer
un
sistema,
un
ensemble,
un
cascada,
¿no?
Entonces,
básicamente
hicimos
un
sistema
que
tenía
dos
fases.
En
la
primera
fase,
una
noticia
se
infería
si
tenía
ciertas
formas
de
técnicas
persuasivas
y
sesgadas,
¿no?
Si
la
inferencia
era
que
no
tenía
ninguna,
directamente
no
estábamos
de
esa
distancia
como
no
sesgada
y
si
contenía
alguna
técnica
persuasiva
o
de
sesgo,
pues
ya
íbamos
a
un
segundo
modelo,
al
segundo
distribuyer,
al
que
habíamos
afinado
para
hacer
la
conservación
binaria
de
sesgado
con
los
sesgados.
Y
lo
publicamos
también
en
el
artículo
en
el
Congreso
de
la
Resolución
de
Procesamiento
de
la
Iglesia
Natural
el
año
pasado.
Y,
al
final,
lo
que
llegamos
a
la
conclusión
era
que
nuestro
modelo,
estoy
de
cierto
que
era
peor
cuando
entrenaba
y
se
validaba
con
noticias
del
mismo
contexto,
que
esto
se
puede
explicar
porque
tal
vez
el
modelo
que
no
era
un
cascada
estaba
haciendo
un
sobreentrenamiento
del
estilo
regional
periodístico,
concreto,
¿no?
Y
lo
que
vimos
es
que
cuando
entrenábamos
y
validábamos
con
noticias
de
unos
países
y
validábamos
con
otros,
el
terminamiento
del
modelo
encascada,
el
que
hacía,
digamos,
inferencia
buscando
técnicas
concretas,
era
mucho,
mucho,
mucho
mejor
que
los
modelos
que
hacen
clasificación
de
la
Iglesia.
Y,
la
última,
en
cuanto
a
Provaso
Futuro,
estamos
probando
anotar
las
prefaces
de
nuestro
corpús.
Además,
tenemos
la
intención
de
generar
nuevas
distancias
sintéticas
con
modelos
generativos.
Es
una
prueba
que
queremos
hacer
para
ver
si
tenemos
ampliado
así
el
tamaño
de
nuestro
éxito.
Y,
por
lo
tanto,
tengamos,
nos
daremos
de
nuevo,
entrenamos
y
escamas
encascadas,
y
cual
validaremos
con
los
18
bases
de
los
que
hablen
al
principio.
Y,
bueno,
eso
es
todo.
Muchas
gracias
por
la
atención.
Si
hay
alguna
duda,
pregunto
por
estar
encantado
de
resolverla.
Muchísimas
gracias,
Fran.
Es
súper
interesante.
Ya
sabía
yo
que
está
aquí
en
donde
me
va
a
gustar,
la
verdad.
Como
muy
completo
todo
el
análisis
de
los
esgos,
no
sabía
que
había
tantos
tipos,
y
realmente
sí
que
está
bien
hacer
algo
muy
granular
a
la
hora
de,
sobre
todo,
hacer
una
tesis
sobre
este
tema.
Tengo
mucho
interés
en
ese
dataset.
A
ver
si
le
podemos
echar
un
ojo.
Ya
no
sabíais.
Pero,
bueno,
seguro
que
mucha
gente
también.
Entonces,
nada,
muchas
gracias.
Espero
que
te
haya
gustado.
Espero
que
a
la
gente
también
que
te
ha
estado
escuchando
la
haya
gustado.
Y
ahoranos
vamos
a
hablar
de...
No,
perdón.
De
qué
vamos
a
hablar.
Hay
de
combatir
eso.
Perdón,
el
discurso
de
odio
con
Estrella.
Nada.
Dime.
Es
muy
interesante
y
también
muy
importante
para
la
sociedad.
Sí,
sí,
sí.
La
verdad
que
me
encanta.
Cada
año
tenemos
mínimo
una
persona
que
participa
del
grupo
de
NLP
de
la
UNED
y
otra
de
NLP
Sinai.
Entonces,
este
año
como
no,
también.
Muchas
gracias.
La
verdad
que
hacía
mi
investigación
súper
interesante
y
muy...
como
con
mucho
impacto.
O
sea,
que
me
gusta.
Eso.
Hasta
la
próxima.
gracias. | Francisco Rodrigo |
Combatiendo el discurso de odio, Estrella Vallecillo @NLP SINAI | Hackathon #Somos600M | Hola
a
todos,
continuamos
con
el
primer
día
de
Keynotes
del
Hackathon
Somos
600M.
Como
sabéis,
el
objetivo
de
la
iniciativa
es
crear
recursos
abiertos
de
procesamiento
de
lenguaje
natural
en
español
y
sobre
todo
que
representan
la
diversidad
de
los
600
millones
de
personas
que
hablamos
español.
Las
inscripciones
siguen
abiertas,
todo
el
mundo
puede
colaborar
independientemente
de
sus
conocimientos
en
inteligencia
artificial
y
bueno,
podéis
leer
más
en
la
web
que
está
ahí,
somos
en
el
ep.org/hackathom.
Hoy
os
traemos
una
serie
de
Keynotes
de
procesamiento
de
lenguaje
natural
responsable,
hemos
visto
con
Fran
cómo
detectar
sesgos
de
manera
automática
en
medios
de
comunicación
y
ahora
os
voy
a
presentar
a
Estrella.
Estrella
es
ingeniera
informática,
actualmente
estudiante
de
Master
en
Ingeniería
Informática
de
la
Universidad
de
Jaén,
es
investigadora
contratada
en
el
grupo
Sinaí
y
su
trabajo
se
centra
en
la
detección
de
lenguaje
ofensivo
y
en
la
degeneración
de
contranarrativas
asociadas
a
los
mensajes
ofensivos.
Ahora
nos
va
a
contar
que
es
todo
esto,
pero
bueno,
con
ella
vamos
a
aprender
a
combatir
el
discurso
de
odio
mediante
efectivamente
la
generación
automática
de
contranarrativas.
Bienvenida
Estrella,
muchísimas
gracias,
es
un
placer
tener
de
aquí
y
tengo
mucha
curiosidad
por
ver
a
ver
qué
nos
cuentas.
Pues
muchas
gracias
María,
en
primer
lugar
gracias
por
invitarme
a
dar
una
Keynote
y
para
descontar
un
poco
todo
lo
que
estoy
haciendo
y
nada,
vamos
a
empezar.
Pues
yo
voy
a
hablar
un
poco
sobre
la
introducción
que
nos
lleva
a
trabajar,
la
motivación
que
nos
lleva
a
trabajar
con
el
discurso
de
odio
y
demás.
También
quiero
contaros
lo
que
viene
a
ser
una
contranarrativa
como
medio
para
combatir
los
discursos
de
odio,
un
poco
los
recursos
existentes
que
hay
para
el
español
que
era
un
poco,
hemos
ido
nosotros
creando
los
nuestros
propios
en
el
grupo
de
investigación,
luego
hemos
ido
aplicando
distintas
estrategias
para
generar
esta
contranarrativa
y
finalmente
por
un
poco
los
retos
a
los
que
no
hemos
ido
enfrentando
y
los
trabajos
futuros
y
retos
por
afrontar.
En
primer
lugar
indicar
que
esta
presentación
contiene
mensajes
ofensivos
que
no
reflejan
en
absoluto
mi
opinión
personal,
simplemente
son
ejemplos
de
cosas
con
las
que
estamos
trabajando.
Empezando
con
la
introducción,
pues
nos
encontramos
en
noticias
de
estos
dos
tipos,
en
los
que,
pues
podemos
ver
que
España
registró
un
33%
más
de
delitos
de
odio
en
2023
y
la
mayoría
por
racismo
o
xenofobia,
o
también
noticias
como
la
que
aparece
aquí
de
Andalucía
Información
en
la
que
dice
que
pues
que
preocupa
el
aumento
de
los
delitos
de
odio
y
más
en
internet,
ya
que
cada
año
va
habiendo
más
caso.
Aumentando
los
delitos
de
odio
un
3,7%
en
España.
Esto
nos
induce
a
ver
junto
con
los
datos
del
Ministerio
del
Interior
de
España,
pues
que
hay
gran
cantidad
de
delitos
de
odio
y
sobre
todo
lo
que
más
nos
preocupa
es
que
en
redes
sociales
haya
un
21%
con
3%,
ya
que
en
redes
sociales
es
donde
más
gente
joven
hay
y
aprenden
muy
rápido
los
comportamientos
que
en
redes
sociales
se
dan.
Entonces,
si
en
redes
sociales
tenemos
un
comportamiento
nocivo,
lo
más
seguro
es
que
ellos
lo
apliquen
luego
de
que
a
su
vida
privada.
Y
todo
esto,
pues,
no
hace
pensar
que
hay
que
luchar
contra
los
delitos
de
odio
en
internet
y
demás.
Entonces,
ya
se
ha
visto
que
a
través
de
muchas
herramientas
de
procesamiento
de
lenguaje
natural,
se
han
analizado
muchos
comentarios
de
redes
sociales
y
se
han
detectado
pues
aquellos
mensajes
que
eran
no
ofensivos,
que
eran
nocivos
para
los
usuarios.
Pero
una
vez
que
detectamos
ese
mensaje
ofensivo,
casi
siempre
se
opta
por
bloquear
o
eliminar
esos
mensajes.
Que
es
lo
que
ocurre,
que
si
toda
una
persona
le
borra
un
post
que
hace
un
comentario
o
algo,
va
a
sentir
como
que
su
libertad
de
expresión
se
está
cortando
y
se
va
a
hacer
resistente
al
cambio
queriendo
seguir
publicando
de
cualquier
manera
ese
comentario.
Entonces,
en
contraposición
a
esta
opción
ahora
está
surgiendo
una
nuevaestrategia
que
genera
una
respuesta
a
ese
mensaje.
Sin
que
tengas
que
eliminar
el
mensaje
que
es
ofensivo
y
en
esa
respuesta,
pues
que
le
incluya
algo
indicándole
pues
que
su
comportamiento
no
está
siendo
adecuado,
que
debería
de
pensar
y
ponerse
en
el
lugar
de
la
otra
persona
y
de
respetar
y
tolerar
un
poco
al
resto
de
usuarios.
Es
por
eso
que
surge
la
contranarrativa
y
una
contranarrativa
no
es
más
que
una
reacción
breve
y
directa
que
se
da
a
mensajes
de
odio
o
mensajes
ofensivos
y
se
utilizan
pues
para
intentar
de
construir,
de
sacrificar
y
de
emitificar
directamente
pues
los
mensajes
que
son
ofensivos
o
que
son
extremistas
violentos.
Nosotros
llevamos
ya
en
el
grupo
de
investigación,
sin
ahí
un
tiempo
trabajando
con
la
contranarrativa
y
hemos
leído
bastantes
contranarrativas
y
mensajes
ofensivos
y
la
hemos
podido
catalogar
en
dos
partes.
Una
que
sería
el
rechazo
simplemente
decir
pues
esto
que
comentan
no
es
así
o
no
lleva
razón
y
otra
que
es
el
método
más
efectivo
y
hacia
el
que
nos
estamos
encaminando
que
sería
un
poco
la
refutación
ya
que
proporcionamos
argumentos
y
hechos
que
intenten
explicar
el
por
qué
el
usuario
no
se
debería
de
comportar
así
o
no
lleva
razón.
Contra
esto
como
ya
he
dicho
en
el
grupo
hemos
invertido
esfuerzos
en
generar
distintos
recursos,
tenemos
dos
corpus,
dos
conjuntos
de
datos
con
NSP
que
lo
presentamos
en
la
sociedad
española
de
procesamiento
del
lenguaje
natural
en
el
último
congreso
que
hubo
y
para
crearlo
probamos
distintos
modelos
del
lenguaje
cuando
estuvimos
haciendo
estos
experimentos
todavía
no
había
salido
GPT4
así
que
pues
probamos
con
GPT2,
GPT3.5,
GPT2
María,
Bloom
y
Flante5
aunque
al
final
el
conjunto
de
datos
solo
incluye
datos
de
GPT3.5
por
lo
que
veremos
continuación
y
conan
MTSP
que
va
a
salir
publicado
ahora
un
artículo
dentro
del
LREC
que
yo
invito
a
que
si
queréis
saben
más
pues
que
le
hay
estos
dos
artículos.
Luego
los
conjuntos
de
datos
estarán
públicos
disponibles
en
el
GHA
que
tenemos
dentro
del
grupo
de
investigación
y
dentro
del
conan
MTSP
de
este
corpus
que
hemos
creado
el
modelo
que
al
final
genera
las
contranarrativas
va
a
ser
GPT4
y
ya
iré
explicando
un
poco
el
por
qué.
Yándonos
un
poco
a
conan
SPS
fue
como
nuestra
primera
introducción
hacia
lo
que
viene
a
ser
la
contranarrativa
y
entonces
empezamos
por
un
conjunto
de
datos
que
era
pequeño
que
tenía
mensajes
ofensivos
que
van
dirigidos
a
cinco
grupos
como
son
los
musulmanes,
los
judíos,
el
colectivo
LGTB,
las
personas
de
color
y
las
mujeres.
Para
hacerlo
partimos
de
base
del
conan
KN
de
esta
autora
que
estaba
en
inglés
y
hicimos
una
traducción
automática
para
pasar
los
textos
en
español
y
después
aplicamos
distintas
estrategias
de
PROM
que
ya
veremos
un
PROM
es
como
la
instrucción
que
le
damos
al
modelo
para
que
ha
un
modelo
generativo
para
que
realice
la
tarea
que
queremos
que
realice.
Dentro
del
conan
SPS
GPT3.5
realizaba
las
contranarrativas
y
luego
estas
contranarrativas
eran
evaluadas
en
términos
de
ofensividad
de
postura
para
saber
si
el
modelo
estaba
a
favor
o
en
contra
de
lo
que
decía
el
mensaje
ofensivo
e
informatividad.
Los
datos
de
estas
notaciones
también
están
junto
al
corpo
con
lo
cual
se
pueden
seleccionar
aquellas
instancias
que
nos
resulten
importantes.
Dentro
de
la
experimentación
como
ya
he
dicho
probamos
con
distintos
modelos
y
dentro
de
este
ejemplo,
por
ejemplo
los
judíos
son
egoístas,
tacaños
codiciosos,
GPT2
no
llegaba
a
entender
muy
bien
lo
que
era
generar
una
contranarrativa
y
no
contestaba
bien.
GPT2
María
que
es
un
modelo
GPT2
adaptado
al
español,
pues
sí
que
entendía
lo
que
tenía
que
hacer
pero
generaba
una
frase
como
que
era
mucho
más
ofensiva
que
la
que
tenía
que
intentar
de
contrarrestar.
Flante
5
reescribía
el
mismo
mensaje
ofensivo
pero
lo
que
hacía
era
quitar
los
caracteres
raros
como
son
la
estilo
o
la
eña.
Bloom
se
contradecía
bastante
y
tenía
algunas
frases
que
resultaban
ofensivas
con
lo
cual
tampoco
llegaba
a
alcanzar
bien
la
tarea
quequeríamos
hacer.
Pero
GPT3.5
ya
sí
que
es
verdad
que
cuando
quería
contestar
a
ese
mensaje
ofensivo
pues
decía
"esta
afirmación
es
injusta
e
inorante,
la
cultura
es
pudida
de
una
de
las
más
antigua
y
rica
y
con
el
tiempo
ha
dado
lugar
a
muchas
figuras
importantes
de
la
humanidad".
Entonces
pues
vemos
que
además
intenta
de
añadir
un
poco
de
información
extra,
que
es
un
poco
el
camino
que
estamos
llevando
ahora.
Frente
a
este
conjunto
de
datos
nos
dimos
cuenta
que
eran
muy
muy
pocas
instancias
y
que
a
lo
mejor
pues
como
conjunto
de
evaluación
pues
puede
ser
interesante
para
futuro
experimentos.
Pero
nos
seguían
faltando
datos
con
los
que
trabajar
y
encontramos
pues
un
Corpus
que
estaba
también
en
inglés
y
pudimos
generar
a
través
de
él
con
NMTSP.
Con
NMTSP
al
final
cuenta
con
3.636
instancias
y
tiene
mensajes
ofensivos
que
están
dirigidos
a
personas
con
discapacidad,
a
judíos,
al
colectivo
LGTB,
a
inmigrantes,
a
mujeres,
a
musulmanes,
a
personas
de
color
y
otros
grupos
como
pueden
ser
los
gitanos
o
las
personas
con
obesidad.
Como
ya
he
dicho
antes,
partíamos
de
otro
conjunto
que
ya
estaba
hecho
para
el
inglés
que
es
con
NMTSP.
Otra
vez
utilizamos
DIPLE
y
lo
adaptamos
un
poco
al
español.
Estas
traducciones
se
revisaron
manualmente
para
que
estuviesen
correctas
y
no
hubiese
problemas
de
lenguaje.
Volvimos
a
aplicar
una
estrategia
de
PROM
para
que
GPT4
generase
la
contranarrativa
y
su
posterior
evaluación
manual
y
añadimos
ya
3
métricas.
Añadimos
además
de
la
ofensividad,
la
postura
y
la
informatividad,
la
veracidad
y
la
información
que
daban
los
modelos.
Si
necesitaba
alguna
edición
por
cualquier
fallo
gramatical
y
además
añadimos
una
comparación
de
la
contranarrativa
que
tenía
el
Kona
NMTSP
con
la
que
generaba
GPT4.
Estos
son
los
resultados
que
salieron
de
esta
evaluación
donde
vemos
la
mayoría
de
las
etiquetas
que
se
pusieron
a
las
contranarrativas
generadas
eran
no
ofensivas,
estaban
en
desacuerdo
con
el
mensaje
ofensivo.
Con
tenían
información
específica
e
informativa
con
datos
veraces,
no
solía
necesidad
de
edición
de
errores
gramaticales
y
GPT4
era
mejor
que
la
original
que
había
en
NMT
en
términos
de
argumentación.
¿Por
qué
hago
especial
en
campiés
en
la
comparativa
del
Kona
NMT
con
Kona
NMTSP,
que
es
la
que
genera
GPT4?
En
este
ejemplo
vemos
que
las
mujeres
no
deberían
de
votar,
las
mujeres,
al
igual
que
los
hombres,
tienen
el
derecho
de
participar
en
la
toma
de
decisiones
que
afectan
su
vida
y
comunidades.
El
voto
es
una
herramienta
fundamental
para
agandar
a
antitar
la
igualdad
de
género
y
la
justicia
social
negale.
La
mujer
es
perpetuar
la
discriminación
y
la
disigualdad,
este
es
mucho
más
informativo
que
el
que
hay
dentro
del
Kona
NMT
que
simplemente
rechaza
la
idea
y
dice,
las
mujeres
pueden
votar,
porque
las
va
a
discriminar
el
gobierno.
Entonces
este
punto
de
argumentación
nos
sirve
y
es
muy
útil
para
trabajo
de
futuro.
Ya
una
vez
que
tenemos
estos
conjuntos
de
datos
podemos
intentar
explorar
otros
caminos
dentro
de
la
generación
de
contrarrativas,
como
pueden
aplicar
estrategias
basadas
en
PRONTING,
que
es
lo
que
hemos
hecho
para
generar
los
corpus
como
0-sub
learning
o
fused
learning.
Y
una
cadena
multi-step,
no
os
preocupéis
por
los
términos
porque
ahora
os
quiero
explicar
todo
con
un
poco
más
de
detalle.
Y
luego
otra
estrategia
es
intentar
entrenar
estos
grandes
modelos
del
lenguaje
generativo
para
que
se
adapten
un
poco
más
a
la
tarea
que
nosotros
queremos
realizar.
En
cuanto
a
los
primeros
pasos
que
dimos
para
crear
los
corpus,
pues
ya
he
dicho
que
utilizamos
PRONTING,
concretamente
hicimos
pruebas
con
0-sub
learning
y
fused
learning,
que
básicamente
es
trabajar
con
la
instrucción
que
le
damos
a
los
modelos.
Por
un
lado
tendríamos
lo
que
es
la
descripción
de
la
tarea,
diciéndole
qué
es
la
contrarrativa,
en
qué
consiste
y
lo
que
debe
de
realizar.
Si
queremos
hacer
fused
learning,
le
proporcionaremos
una
serie
de
ejemplosindicándoles
por
un
mensaje
ofensivo
lo
que
es
la
contrarrativa.
Y
finalmente
le
daremos
la
instrucción
de
lo
que
queremos
que
ellos
realicen,
proporcionándole
el
mensaje
ofensivo
y
en
la
parte
de
la
contrarrativa
se
la
dejamos
en
blanco
para
que
ellos
sean
los
que
cuando
dándole
esta
instrucción
generen
dicha
contrarrativa.
Pasando
ya
un
poco
a
las
nuevas
estrategias
que
estamos
explorando
dentro
del
PRONTING,
porque
fused
learning
y
0-sub
learning
es
como
que
ya
hemos
trabajado
bastante
con
ellos
y
queremos
ir
un
poco
más
allá,
tenemos
el
multi-step,
que
es
como
una
especie
de
conversación
que
establecemos
con
el
modelo
en
el
que
le
damos
una
descripción
del
sistema
y
en
una
primera
iteración
le
vamos
diciendo
los
pasos
que
tiene
quitando
para
resolver
la
contrarrativa.
Y
el
primer
paso
es
identificar
el
sujeto
o
el
colectivo
de
la
entidad
que
está
siendo
ofendido.
Entonces
ya
me
daría
una
respuesta
y
en
la
siguiente
iteración
tendría
acceso
a
toda
la
conversación
anterior,
es
como
un
modelo
de
chat.
Y
en
un
segundo
paso
le
preguntaríamos
qué
aspectos
son
los
que
están
siendo
ofendidos
con
ese
mensaje
ofensivo
y
finalmente
le
preguntaríamos
por
la,
porque
nos
elabora
la
contrarrativa.
Dentro
de
esto
nos
encontramos
este
resultado,
este
sería
el
primer
paso
que
le
damos
con
el
modelo
y
este
el
segundo,
donde
cuando
le
preguntamos
por
qué
identifique
a
la
persona,
al
colectivo
que
está
siendo
ofendido,
pues
te
dice
que
él
es
un
modelo
de
lenguaje
seguro
y
que
no
puede
responder
a
esa
pregunta,
aunque
igualmente
te
continúa
diciendo
pues
que
el
término
autista
es
un
término
que
es
estimadistante
y
que
no
es
adecuado
para
referirse
a
personas
con
autismo.
Así
que
al
final
en
parte
te
está
dando
como
una
respuesta.
En
un
segundo
paso
vemos
cómo
nos
sugieren
los
aspectos
que
están
ofendiendo
a
este
mensaje.
Bueno,
primero
lo
primero
que
te
dice
vale,
estoy
de
acuerdo
con
lo
que
me
pregunta
y
voy
a
intentar
ayudarte
con
con
la
tarea
y
ya
a
continuación
pues
te
da
los
aspectos
que
están
siendo
ofendidos.
Que
en
este
caso
sería
el
término
autista
porque
es
un
término
estimadistante
y
reduccionista
y
luego
pues
que
la
idea
de
aislar
a
las
personas
con
autismo
pues
perpetúa
la
discriminación
y
genera
más
estímus.
Y
ya
pues
finalmente
elaboraría
la
contranarrativa,
que
es
decirle
al
usuario
que
su
mensaje
ha
sido
ofensivo
y
discriminatorio
y
que
no
se
debería
de
utilizar
el
término
de
autista
y
ya
finalmente
pues
te
recuerda
que
todas
las
personas
deben
de
ser
tratadas
con
respeto
y
con
dignidad.
Aunque
como
hemos
dicho
anteriormente
la
contranarrativa
debe
ser
una
respuesta
directa
y
breve
y
nos
faltaría
quizá
explorar
un
cuarto
paso
en
el
que
se
trate
de
resumir
esta
contranarrativa.
Otra
de
las
estrategias
que
estamos
aplicando
es
el
entrenamiento
de
los
modelos
grandes
del
lenguaje,
concretamente
de
llamado
y
de
mistral
y
estamos
utilizando
una
técnica
que
es
culora,
culora
es
una
técnica
eficiente
de
entrenamiento
de
estos
modelos
para
que
en
vez
de
tener
que
entrenar
toda
la
red
neuronal
pues
entrenamos
solo
una
pequeña
parte.
Y
una
vez
que
hemos
hecho
ese
entrenamiento
pues
concatenamos
los
pesos
que
ya
traía
la
red
neuronal
y
el
conocimiento
previo
que
tenía
al
nuevo
que
aprendió
ahora
para
adaptarse
a
la
tarea.
Dentro
de
este
entrenamiento
y
esta
nueva
estrategia
que
estamos
explorando,
este
método,
planteamos
distintos
experimentos,
uno
que
era
aplicar
Terozud
Learning,
un
simple
PROM,
otro
que
era
coger
los
datos
de
ConanMT
que
como
ya
hemos
dicho
están
como
más
o
menos
en
el
mundo.
Y
ya
hemos
dicho
están
como
más
enfocados
a
lo
que
era
el
rechazo
de
una
idea
o
a
hacer
preguntas
para
que
los
usuarios
reflexionen
sobre
qué
es
lo
que
han
puesto
mal
con
sus
comentarios.
Y
ya
finalmente
pues
con
anemtsp
y
optamos
por
explorar
dos
vías,
utilizar
todo
el
conjunto
de
ConanMT-SP
o
una
parte
que
es
lo
que
nosotros
llamamos
delux
o
podríamos
llamarlo
gole
standard
o
las
contranarrativas
perfectas.
Que
son
aquellas
que
sonno
ofensivas
que
van
en
contra
del
mensaje
ofensivo
que
no
están
de
acuerdo
con
lo
que
en
ellas
se
dice.
Son
informativas
y
específicas,
además
la
información
que
contienen
es
veraz
y
no
suele
necesitar
edición
gramatical,
además
de
ser
mejores
en
cuanto
a
argumentación
que
las
iniciales
de
ConanMT.
Dentro
de
una
vez
que
tenemos
planteado
nuestro
experimento
es
fundamental
establecer
una
serie
de
métricas.
Tenemos
muchos
textos
para
evaluar
y
entonces
intentamos
como
buscar
alguna
métrica
que
nos
dio
una
idea
por
qué
contranarrativa
pudiesen
ser
mejores.
Y
buscamos
entre
ellas
elegimos
la
perplejidad
que
es
la
probabilidad
de
que
aparezca
de
que
el
modelo
prediga
a
esta
palabra
en
base
a
una
secuencia
previa.
Técnicas
basadas
en
engramas
que
son
las
que
se
suelen
utilizar
para
traducción
automática.
Que
vamos
viendo
a
ver
si
esta
palabra
que
hay
en
la
frase
de
referencia
aparece
también
en
la
hipótesis
y
vamos
calculando
el
número
de
ocurrencia.
Y
las
basadas
en
similitud
semántica
que
a
través
de
la
representación
vectorial
que
tienen
las
palabras
pues
intenta
establecer
como
la
relación
que
tienen
entre
distintos
sinónimos
de
la
frase
que
tú
predices
con
la
frase
que
verdaderamente
estás
tomando
de
referencia.
Para
evaluar
nuestro
experimento
cogimos
un
subconjunto
de
Conan
MTSP
porque
eran
las
más
informativas
y
eso
y
su
conjunto
no
se
utilizó
para
entrenar
con
lo
cual
nos
valía
a
la
hora
de
calcular
esta
métrica
de
referencia.
Y
entonces
pues
los
resultados
que
podemos
ver
son
los
siguientes
respecto
a
perplejidad
el
modelo
que
menos
le
cuesta
de
predecir
las
palabras
que
hay
dentro
del
conjunto
de
datos
son
los
que
han
sido
entrenados
con
Conan
MTS.
Y
el
modelo
que
mejor
se
adapta
a
la
tarea
también
es
verdad
que
tiene
muchísimos
más
parámetros.
Yama
tiene
tres
de
billones
de
parámetros
mientras
que
Mistral
solo
tiene
siete
y
las
diferencias
que
se
aprecian
entre
ambos
modelos
son
insignificantes
y
tenemos
en
cuenta
que
este
modelo
es
más
pequeño
y
es
más
eficiente.
Respecto
a
las
métricas
de
Negramas
pues
vemos
que
el
experimento
que
mejor
ha
funcionado
ha
sido
entrenar
con
aquellas
contranarrativas
que
considerábamos
perfectas
en
base
a
la
análisis
de
los
anotadores.
Aunque
sí
que
es
verdad
que
vimos
que
estas
métricas
tenían
resultados
muy
bajos
en
comparación
con
las
de
semilitud
semántica
ya
que
pues
no
tienen
cuenta
los
sinónimos
y
hay
que
explorar
un
poco
los
distintos
tipos
de
contranarrativas
que
pueden
salir
a
raíz
de
un
mensaje
ofensivo.
Y
luego
pues
finalmente
la
de
semilitud
semántica
vemos
aquí
que
en
este
caso
en
Yama
es
mejor
para
mover
score
e
utilizar
conan
mtsp
aunque
la
diferencia
es
muy
muy
muy
pequeña
y
casi
siempre
se
optaría
por
utilizar
conan
mtsp
deluxe
que
sería
la
contranarrativa
perfecta.
Aunque
vemos
que
al
haber
insertado
algunos
datos
que
tenían
algo
de
ruido,
algo
de
errores
de
informatividad
y
demás
no
empeora
tanto
como
podríamos
pensar
a
un
inicio
estos
sistemas.
Y
luego
conan
mtsp
al
estar
más
basado
en
ese
rechazo
pues
sí
que
se
aleja
más
que
hasta
incluso
un
sistema
que
está
basado
solo
en
PROM
con
0
sublerring.
Es
decir
son
mucho
más
informativas
las
que
se
utilizan
con
0
sublerring
que
estas
iniciales
que
simplemente
rechazaban
una
idea
o
hacían
preguntas.
Y
para
ver
un
poco
más
que
no
sea
solo
números
sino
analizando
un
poco
más
el
texto
que
al
final
es
algo
fundamental
dentro
de
estos
modelos.
Lo
que
podemos
ver
es
como
aquellos
que
se
han
realizado
para
este
ejemplo
de
los
discapacitados
son
diferentes
a
nosotros,
nos
quiero
que
me
molesten.
Vemos
como
los
modelos
que
se
han
entrenado
con
conan
mtsp
tienen
algunos
defectos
gramaticales
como
el
que
se
aprecia
en
el
demistral
que
dice
"puedamos
aprender,
no
queda
bien"
o
"buscar
encontrar".
O
aquí
una
palabra
que
está
mal
actuada
como
es
"empatico".
Y
también
vemos
que
la
mayoría
de
las
veces
se
repite
este
caso
el
que
aparece
con
llama
de
conan
mtsp
que
va
haciendo
una
misma
pregunta
pero
vacambiando
una
de
las
palabras
dentro
de
la
pregunta.
¿Qué
quiere
decir
con
diferente?
¿Qué
quiere
decir
con
molestar?
¿Qué
quiere
decir
con
diferencia?
Y
al
final
acaba
repitiendo
estas
preguntas
hasta
llegar
a
su
límite
de
generación
de
tokens,
con
lo
cual
es
como
que
se
ha
ido
sobre
entrenando,
sobre
ajustando
el
modelo
a
la
tarea
y
no
llegue
a
identificar
tampoco
cuando
tiene
que
parar.
Y
estos
son
ejemplos
de
contrarrativas
buenas
que
hemos
encontrado
que
provienen
de
entrenar
nuestros
sistemas
con
el
conjunto
de
datos
que
hemos
creado
con
mtsp.
Y
dice
"los
discapacitados
son
seres
humanos
como
todos
nosotros
y
me
dicen
respeto
y
comprensión,
todos
tenemos
nuestras
diferencias
pero
eso
no
significa
que
no
podamos
convivir
en
armonía
y
apoyarnos
mutuamente".
La
diversidad
enriquece
nuestra
sociedad
y
no
hace
más
fuertes
como
comunidad,
no
debemos
jugar
a
alguien
por
su
discapacidad
sino
por
su
carácter
y
acciones.
Todos
merecen
la
oportunidad
de
ser
tratados
con
dignidad
y
respeto.
Y
luego
mixtral
que
dice
"no
estoy
de
acuerdo
con
esa
información,
todos
somos
seres
humanos
y
merecemos
respeto
y
comprensión
independientemente
de
nuestras
diferencias".
La
diversidad
es
lo
que
nos
enriquece,
lo
que
enriquece
nuestra
sociedad
y
nos
permite
aprender
y
crecer
juntos.
No
debemos
jugar
a
las
personas
por
su
diferencia
sino
celebrarla
y
aprender
de
ellas.
Una
cosa
curiosa
es
que
mixtral
casi
siempre
suele
empezar
con
este
tipo
de
frases.
No
estoy
de
acuerdo
con
esa
afirmación
o
no
opino
igual
que
tú.
Y
ya
pues
para
terminar
un
poco
con
los
retos
que
nos
encontramos,
pues
tenemos
los
retos
que
hay
normalmente
cuando
trabajas
como
modelos
grandes
del
lenguaje,
que
son
las
alucinaciones.
Y
lo
que
es
el
proceso
de
evaluación,
que
no
hay
como
unas
métricas
específicas
que
nos
definan
que
es
mejor
o
que
es
peor.
Y
al
final
acaban
necesitando
a
los
humanos
para
que
realicen
esa
anotación
y
esa
evaluación.
Y
en
algunos
casos
pues
es
muy
costoso.
Y
ya
errores
más
relativos
a
los
que
no
hemos
encontrado
dentro
de
la
generación
de
contrarrativa,
que
son
los
errores
gramaticales
que
cometen
los
modelos
a
la
hora
de
escribir.
También
reconocimiento
de
palabras
ofensivas
porque
el
español
es
muy
rico
y
al
final
hay
palabras
como
"lameculo"
que
sí.
No
tiene
el
modelo
esa
información
de
palabras
ofensivas,
no
es
capaz
de
reconocerlo.
Los
problemas
de
seco
de
nuestros
datos
y
el
sobreentrenamiento
que
le
damos
a
los
modelos.
Y
si
son
modelos
que
se
han
entrenado
en
grandes
cantidades
de
datos
en
inglés
y
luego
se
ha
hecho
una
adaptación
al
español,
pues
de
normal
te
va
a
generar
más
datos
en
inglés
y
puede
incluso
mezclar
los
idiomas.
Que
nos
ha
pasado
también
cuando
hemos
aplicado
técnicas
de
multistep.
Finalmente,
deciros
que
tenemos
una
tarea
abierta
en
el
IBERLEF
que
hemos
organizado
dentro
de
los
grupos
de
investigación.
Por
si
os
queréis
enfrentar
un
poco
a
todos
los
problemas
de
contrarrativa.
Y
daros
las
gracias
por
asistir
a
las
charlas.
Si
tenéis
cualquier
pregunta,
estaré
dispuesta.
Estaré
encantada
de
resolverla.
Hola
estrella.
Muchísimas
gracias.
La
verdad,
es
muy
interesante.
No
me
ha
deflado
para
nada.
Y
además
lo
que
estaba
pensando
es
que
como
has
explicado
tan
en
detalle
todos
los
procesos
de
creación
del
data
se
ente,
después
de
entrenamiento,
también
obviamente
los
problemas
que
habéis
tenido,
retos
y
cómo
lo
sabéis,
diferentes
opciones
que
habéis
probado
y
como
veis
ya
no
solo
solución,
pero
como
habéis
seguido
avanzando.
Igual
como
hay
gente
que
se
está
todavía
uniendo
al
jacatón,
igual
hay
gente
que
puede
tomar
esto
como
ejemplo
de
proyecto
y
que
creen
más
datasets
de
contranarrativas.
No
sé,
sobre
el
que
ocurre.
La
verdad
que
no
tenía
ni
idea
lo
que
era.
Pero
está
muy
bien.
Y
es
verdad
lo
que
dice
lo
que
decía
justo
al
principio
como
motivación,
que
realmente
es
una
manera
mucho
mejor
de
responder,
o
sea,
de
reaccionar
contra
un
comentario
faltoso,
como
lo
queramos
llamar.
Entonces
nada,
me
ha
encantado.
Yo
animo
a
lagente
de
verdad
a
que
aún
esfuerzo
y
haga
cosas
de
contranarrativas,
porque
cuando
quisimos
empezar
tuvimos
que
empezar
tiras
de
datos
en
inglés,
porque
no
teníamos
por
dónde
tirar.
Y
entonces
pues
estaría
muy
bien,
sobre
todo
porque
ahora
mismo
comparamos
solo
con
una
contranarrativa,
pero
un
mensaje
ofensivo
se
puede
abordar
de
muchas
maneras.
Entonces
pues
estar
en
una
base
de
datos
más
grande,
comparar
con
varias
contranarrativas
que
además
sean
correctas
estaría
bastante
interesante.
Ya,
pues
a
ver,
a
ver
si
hay
alguien
que
se
anime,
pero
sí,
muy
bien.
Y
de
hecho
también
compartiré
todos
los
recursos.
Bueno,
nos
has
mandado
por
aquí,
pero
si
me
los
mandas
en
lista
o
algo
así,
también
los
comparto
con
la
gente,
¿vale?
Vale,
perfecto.
Pues
me
sí
son
gracias
de
nuevo,
ya
al
fin
de
mil
veces.
Y
nada,
estará
próxima.
Ah
bueno,
y
ahora
para
también
quienes
estéis
aquí
interesados,
ahora
vamos
a
hablar
de
Ethica
Ambiental
con
Jorge,
también
en
el
mismo
canal
podéis
encontrar
el
link
del
directo.
No
sé
que
nada,
nos
movemos
allá.
¡Saludos!
¡Muta
lego!
¡Muchas
gracias! | Estrella Vallecillo |
Ética Ambiental en IA: Construyendo narrativas sostenibles en español, Jorge Vallego | #Somos600M | Hola
a
todo
el
mundo,
bienvenido
a
todo
el
mundo
de
nuevo.
Continuamos
con
el
primer
día
de
Keynotes
de
nuestro
hackatón,
somos
600M.
Como
sabéis
el
principal
objetivo
de
este
hackatón
es
la
creación
de
recursos
abiertos
de
precisamente
lenguaje
natural
en
español
y
en
otras
lenguas
oficiales
y
sobre
todo
haciendo
un
hincapié
en
que
sea
de
una
manera
responsable,
siempre
de
una
manera
inclusiva,
representando
la
diversidad
de
las
600
millones
de
personas
que
hablamos
de
español.
Como
he
dicho
en
las
Keynotes
anteriores
las
descripciones
siguen
abiertas,
invitamos
a
todo
el
mundo
independientemente
de
nuestro
nivel
a
participar
y
bueno
acabamos
de
ver
un
ejemplo
de
proyecto
muy
interesante
que
sería
creación
de
contra
narrativas
con
estrella
y
ahora
también
nos
vamos
a
proponer
otro
más
relacionado
con
la
ética
y
el
medio
ambiente
de
la
mano
de
Jorge
entonces
bueno
ya
es
la
última
Keynote
de
hoy,
espero
que
os
hayan
encantado
todas
y
está
también
muchísimo
como
mí,
o
sea
que
os
voy
a
presentar
a
Jorge,
Jorge
es
investigador
en
el
campo
de
la
inteligencia
artificial
y
la
ecolinguística
con
un
enfoque
especial
en
la
integración
de
la
ética
ambiental
en
el
desarrollo
tecnológico.
Su
trabajo
se
centra
en
promover
discursos
sostenibles
en
la
idea
generativa,
a
través
de
su
investigación
y
colaboraciones
busca
crear
soluciones
que
armonicen
los
modelos
del
lenguaje
con
valores
ecológicos
y
sociales,
me
encanta,
suena
precioso,
o
sea
que
vamos
a
ello
vamos
a
hablar
de
ética
ambiental,
bienvenido
Jorge.
Bueno
muchas
gracias
María
la
verdad
que
estoy
muy
muy
contento
de
poder
estar
haciendo
esto
aquí
y
creo
estoy
realmente
entusiasmado
porque
creo
que
van
a
hacer
cosas
muy
buenas
y
los
objetivos
que
tiene
este
jacatón
me
encantan,
o
sea
crear
ese
corpus
en
español
y
el
leaderboard
son
dos
cosas
que
siempre
he
pensado
que
son
tan
necesarias
y
bueno
quisiera
aportar
algo
a
eso
y
ese
lo
que
estaríamos
tratando
de
hacer
aquí
aparte
estoy
aportando
otra
cosa
que
ya
deben
haber
notado
en
mi
acento
que
es
del
río
de
la
plata
como
decía
que
tenemos
todos
muchos
acentos
distintos
bueno
este
es
otro
que
trataré
de
que
se
entienda
lo
que
digo
porque
a
veces
podemos
tener
alguna
palabra
un
poco
distinta
al
resto
del
español
pero
bueno
sin
más
quiero
entrar
en
el
tema
pues
tenemos
bastante
para
para
cubrir
y
no
quiero
aburrir
mucho
con
el
preámbulo
o
sea
que
vamos
directo
a
lo
que
al
tema
que
tenemos
que
abordar
que
es
la
ética
sí
gracias
que
es
la
ética
ambiental
en
el
en
el
día
perdón
y
acá
estamos
juntando
dos
cosas
sumamente
importantes
e
interesantes
en
el
problema
ambiental
o
la
crisis
ambiental
que
estamos
viviendo
en
estos
momentos
podría
bien
ser
la
peor
crisis
que
la
historia
de
la
humanidad
lo
que
estamos
encarando
una
posible
extinción
si
no
hacemos
algo
y
por
otro
lado
tenemos
en
la
inteligencia
artificial
tal
vez
lo
que
sea
la
tecnología
más
avanzada
y
la
herramienta
más
potente
en
la
historia
de
la
humanidad
también
entonces
creo
que
son
dos
cosas
que
que
podemos
juntar
y
bueno
tratar
de
contrarrestar
la
una
con
la
otra
entonces
de
qué
forma
podemos
con
ella
y
en
particularmente
en
modelos
de
lenguaje
a
ayudar
con
él
la
crisis
ambiental
acá
estoy
mostrando
tres
formas
es
la
clasificación
que
yo
creo
que
podemos
poner
cualquier
trabajo
dentro
de
una
de
estas
clasificaciones
cualquier
trabajo
ecológico
en
ella
y
la
primera
y
más
obvia
es
aplicar
la
inteligencia
artificial
a
solucionar
problemas
específicos
en
el
idioma
en
ecología
y
en
particular
en
el
idioma
español
por
ejemplo
podemos
crear
un
data
set
o
podemos
crear
un
conjunto
de
instrucciones
dedicado
a
la
agricultura
pero
manejando
un
lenguaje
general
o
un
lenguaje
donde
se
pueda
incluir
toda
la
la
variedad
de
términos
que
existen
en
el
lenguaje
español
o
podemos
crear
algo
para
la
migración
de
estudiar
la
migración
de
animales
que
también
es
otro
tema
donde
hay
muchas
expresiones
distintas
muchas
formas
distintas
de
nombrar
el
mismo
animal
por
ejemplo
en
elespañol
a
veces
un
animal
cambia
de
un
país
a
otro
y
deja
de
ser
el
mismo
animal
porque
pasa
a
tener
otro
nombre
entonces
eso
a
veces
puede
contribuir
a
errores
en
en
conteos
y
ese
tipo
de
cosas
por
ese
lado
puede
haber
muchas
cosas
interesantes
para
ser
en
idioma
español
en
cuando
creamos
ese
corpus
de
que
tengamos
en
cuenta
problemas
ecológicos
esa
es
la
parte
más
obvia
y
más
común
digamos
el
uso
directo
de
la
inteligencia
artificial
a
un
problema
ecológico
después
el
otro
es
el
que
el
que
nombraba
maría
que
es
la
reducción
del
impacto
en
nuestro
propio
trabajo
en
la
reducción
del
impacto
ambiental
porque
como
sabemos
cuando
creamos
modelos
o
cuando
entrenamos
incluso
cuando
hacemos
inferencia
necesitamos
una
cantidad
de
poder
computacional
que
es
bastante
costosa
en
términos
de
ambiente
porque
hay
gastos
de
enfriamiento
de
los
servos
hay
gastos
de
electricidad
etcétera
entonces
ese
es
otra
lugar
donde
tenemos
cosas
para
hacer
por
ejemplo
tratar
de
usar
centros
que
usen
energía
renovable
que
se
alimenten
de
energía
renovable
tratar
de
mantener
nuestro
como
también
nombraba
maría
hacer
nuestras
pruebas
en
modelos
chicos
usando
deitas
pequeñas
de
forma
que
podamos
rápidamente
y
sin
mucho
consumo
saber
si
estamos
en
el
en
el
camino
correcto
no
y
vamos
a
hablar
de
esto
que
tenemos
buenas
oportunidades
para
hacer
en
español
cosas
con
la
parte
ecológica
también
pero
principalmente
me
quisiera
referir
a
la
tercera
parte
que
estoy
diciendo
acá
que
es
en
particular
la
narrativa
que
hay
dentro
de
la
narrativa
y
los
discursos
que
sean
sostenibles
es
decir
que
es
lo
que
la
ella
está
diciendo
es
un
poco
eva
de
la
mano
con
lo
que
con
lo
que
decía
fran
al
principio
y
estrella
después
o
sea
tiene
una
relación
en
el
sentido
de
que
bueno
hay
una
interpretación
de
de
de
cuál
es
la
narrativa
y
por
otro
lado
como
buscamos
contrarrestar
esa
narrativa
probablemente
no
directamente
con
una
contra
narrativa
como
explicaba
estrella
pero
sino
tratando
de
de
mejorar
la
propia
narrativa
para
que
sea
más
sostenible
y
porque
es
esto
bueno
porque
el
como
sabemos
el
poder
del
lenguaje
es
sumamente
importante
en
nuestro
pensamiento
y
bueno
por
algo
estamos
aquí
y
somos
todos
apasionados
del
del
procesamiento
del
lenguaje
porque
sabemos
la
fuerza
que
tiene
en
todo
y
cómo
afecta
nuestro
pensamiento
desde
mucha
forma
lo
podemos
ver
desde
cómo
percibimos
la
realidad
hay
teorías
que
incluso
como
la
hipótesis
de
la
relatividad
lingüística
que
que
dice
que
nuestros
pensamientos
están
más
influidos
por
el
lenguaje
que
el
lenguaje
por
nuestros
pensamientos
por
ejemplo
eso
es
una
teoría
muy
importante
y
también
a
nivel
psicológico
sabemos
lo
importante
que
que
es
el
lenguaje
y
cómo
afecta
todo
nuestro
comportamiento
cualquiera
que
haya
ido
a
hacer
terapia
y
con
algún
psicólogo
depende
un
poco
de
la
corriente
psicológica
pero
en
general
en
psicoanálisis
por
ejemplo
van
a
dar
mucha
importancia
al
cual
palabra
usamos
para
definir
algún
problema
o
algo
todo
eso
habla
de
este
poder
del
lenguaje
tan
grande
y
pero
qué
pasa
con
el
tema
ecológico
y
el
lenguaje
tan
importante
es
el
lenguaje
en
el
en
cómo
tenemos
una
relación
con
la
ecología
y
con
el
ambiente
con
la
naturaleza
en
general
que
incluso
existe
una
corriente
específica
de
la
lingüística
que
es
la
icon
lingüística
que
justamente
se
dedica
a
analizar
el
los
discursos
y
cómo
es
nuestra
relación
con
el
viento
y
ambiente
y
bueno
y
determina
claramente
que
el
lenguaje
puede
contribuir
a
la
sostenibilidad
de
repente
como
expresemos
ciertas
hechos
y
o
puede
incentivar
a
prácticas
de
degradación
ecológica
en
el
sentido
de
que
ahora
vamos
a
ver
algunos
ejemplos
de
que
puede
en
ciertos
casos
contribuir
a
que
hagamos
algo
que
no
es
ecológicamente
positivo
digamos
entonces
si
el
lenguaje
tiene
tanto
poder
y
sobre
todo
poder
sobre
la
ecología
o
nuestra
relación
con
el
medio
ambiente
entonces
estamos
ante
una
gran
por
un
lado
problema
en
el
sentido
de
que
si
esa
es
el
discurso
que
tiene
las
eis
las
yas
si
ese
discurso
es
destructivo
bueno
la
destrucción
puedeser
muy
grande
porque
ejemplo
acá
estamos
mostrando
algunas
imágenes
de
noticias
en
inglés
perdón
pero
esto
lo
que
está
demostrando
es
que
la
fuerza
que
tiene
ese
lenguaje
y
bueno
y
si
este
lenguaje
está
afectando
nuestra
relación
con
el
medio
ambiente
entonces
es
muy
importante
que
hagamos
algo
porque
como
pongo
acá
no
hay
ningún
influencer
o
político
institución
nadie
tiene
el
poder
de
llegar
a
tanta
gente
y
de
y
en
una
forma
interactiva
digamos
o
personal
prácticamente
como
tienen
los
modelos
del
lenguaje
entonces
definitivamente
debemos
hacer
algo
y
primero
que
nada
saber
qué
es
lo
que
están
diciendo
estos
modelos
del
lenguaje
en
términos
de
ecología
porque
es
lo
que
en
este
momento
es
sostenible
la
narrativa
que
tienen
el
discurso
que
aplican
es
algo
que
contribuye
y
nos
trata
de
como
de
guiar
o
ayudarnos
a
mantener
en
armonía
con
naturaleza
y
un
discurso
sostenible
o
no
o
sea
cómo
analizamos
eso
bueno
que
por
ejemplo
hay
algunos
en
inglés
perdón
porque
es
en
la
forma
que
he
venido
trabajando
hasta
el
momento
pero
ya
vamos
a
ver
cómo
transformamos
esto
en
el
español
y
acá
es
un
ejemplo
muy
sencillo
en
donde
se
le
pregunta
a
chip
a
chip
y
for
se
le
pregunta
bueno
tengo
un
árbol
en
mi
jardín
que
es
muy
grande
me
molesta
lo
quiero
cortar
básicamente
eso
entonces
chip
y
chip
y
chip
4
contesta
simplemente
bueno
si
tenés
que
pedirle
a
alguien
que
se
dedique
a
cortar
árboles
que
lo
hagan
de
forma
segura
y
asegurándose
que
no
se
cae
sobre
tu
casa
o
causa
otros
daños
entonces
después
hicimos
otra
cosa
que
fue
e
incluir
al
modelo
en
este
caso
otra
vez
ejg
pt4
y
instruirlo
a
través
de
system
prompt
simplemente
un
contexto
a
la
pregunta
diciéndole
bueno
en
este
caso
tienes
que
actuar
como
si
fueras
un
ecolinguista
una
persona
que
conoce
los
problemas
que
puede
causar
un
discurso
donde
no
se
tienen
cuenta
el
ambiente
o
la
naturaleza
y
ya
simplemente
con
ese
cambio
en
el
en
el
pronto
en
el
system
prompt
dice
otra
vez
que
bueno
que
hay
que
hay
que
que
antes
de
realidad
lo
que
dice
es
que
antes
de
considerar
remover
el
árbol
o
sacar
el
árbol
cortarlo
es
plorar
una
alternativa
más
ecológica
una
solución
donde
tal
vez
simplemente
hacer
el
corte
parte
del
árbol
y
jodar
el
árbol
y
si
finalmente
si
es
necesario
cortarlo
bueno
hay
que
obtener
permisos
y
todo
lo
que
sea
pero
bueno
acá
fue
importante
que
tomó
primero
que
nada
un
actitud
ambientalista
en
el
sentido
de
que
está
diciendo
bueno
antes
que
hacer
eso
hay
que
pensar
en
que
por
qué
cortar
ese
árbol
y
si
no
hay
otra
solución
mejor
acá
otro
ejemplo
comparando
dos
modelos
grandes
en
este
caso
como
el
gp
t4
y
el
clon
2
y
acá
lo
que
lo
que
preguntamos
es
le
decimos
bueno
quiero
empezar
un
negocio
de
criar
perros
cuál
que
tipo
de
raza
de
perros
sería
la
que
de
más
dinero
y
bueno
gp
t4
o
simplemente
dice
cual
dice
que
bueno
french
bulldogs
o
inglés
bulldogs
son
pueden
dar
mejores
precios
y
se
que
bueno
que
considere
una
forma
ética
de
hacer
esa
crianza
de
perros
pero
no
no
lo
digamos
no
nos
dice
que
es
una
cosa
que
realmente
no
es
muy
ética
sin
embargo
clon
2
si
nos
dice
que
no
recomienda
hacer
eso
porque
es
algo
que
que
le
lo
que
tener
mucha
raza
de
perros
criados
para
la
venta
contribuye
a
que
haya
los
refugios
empiecen
a
estar
con
mucha
población
y
entonces
al
final
lo
que
dice
porque
no
no
trata
de
ser
voluntario
en
algún
refugio
un
rescate
de
perros
más
que
usarlo
para
para
la
parte
de
hacer
dinero
con
eso
pero
acá
vamos
a
a
otra
parte
más
interesante
aún
porque
acá
lo
que
lo
que
estoy
tratando
de
mostrar
es
que
en
el
discurso
e
incluso
de
modelos
importantes
como
los
que
acabo
de
mostrar
hay
algunos
problemas
que
fácilmente
se
pueden
detectar
pero
acá
la
prueba
la
llevamos
un
poco
más
allá
y
ese
le
hicimos
una
pregunta
en
inglés
a
a
bar
no
era
yemina
y
en
ese
momento
era
era
bar
cuando
hicimos
en
octubre
y
lo
que
estamos
diciendo
acá
bueno
esto
es
una
pregunta
un
poco
rectiva
en
el
que
estamos
tratando
de
hacer
de
hacer
que
el
modelo
no
responda
de
una
formanegativa
o
sea
es
como
una
pregunta
tratando
de
guiarlo
hacia
una
hacia
una
mala
respuesta
y
sin
embargo
no
bar
completa
muy
bien
la
pregunta
porque
le
decimos
que
queremos
parar
totalmente
la
construcción
verde
porque
nos
parece
que
es
fea
y
es
una
pérdida
de
tiempo
la
construcción
ecológica
y
bar
nos
dice
no
no
te
voy
a
ayudar
con
eso
porque
las
construcciones
ecológicas
es
una
buena
práctica
para
el
ambiente
y
incluso
te
puede
salvar
en
el
terminó
la
largo
plazo
termina
se
ahorrando
dinero
pero
lo
importante
es
que
dice
que
no
va
a
ayudar
con
eso
porque
es
una
buena
práctica
el
tratar
de
hacer
construcción
ecológica
muy
bien
eso
está
muy
bien
que
vamos
contentos
con
eso
pero
qué
hicimos
le
traducimos
esto
al
español
y
le
preguntamos
cómo
se
puede
parar
la
construcción
ecológica
se
al
exactamente
la
misma
pregunta
pero
traducida
al
español
y
como
ven
lo
que
lo
que
nos
responde
va
estremendamente
malo
ya
no
se
está
diciendo
no
está
dando
una
forma
de
hacerlo
que
incluso
con
práctica
bastante
mala
de
hacer
de
disc
incluso
promoviendo
desinformación
y
bloqueos
esto
realmente
fue
fue
muy
chocante
cuando
lo
vi
incluso
por
eso
pongo
el
el
link
ahí
porque
lo
quise
dejar
documentado
de
alguna
forma
pero
quisiera
hacer
una
una
salvedad
en
esto
y
es
que
el
día
al
día
de
hoy
si
nosotros
lo
hacemos
esta
pregunta
otra
vez
por
suerte
en
cuando
Gemini
empezó
después
de
bar
cuando
vino
apareció
el
el
yemeni
que
fue
la
continuación
de
bar
ya
esto
está
superado
y
la
respuesta
es
otra
vez
tipo
no
te
puedo
ayudar
con
eso
eso
es
importante
que
lo
destaque
pero
lo
cierto
es
que
esto
ya
nos
da
una
una
impresión
de
qué
cuán
diferente
puede
ser
cuando
el
modelo
hablando
en
ingles
o
contestando
en
ingles
o
en
español
o
sea
que
acá
hay
mucho
trabajo
por
el
lado
de
cuando
creemos
el
el
corpus
entonces
no
sólo
en
esa
parte
del
corpus
sino
que
quisiera
ahora
recordar
un
poquito
como
las
tres
etapas
en
un
entrenamiento
no
ese
es
primero
esa
entrenamiento
inicial
sobre
un
corpus
a
gran
escala
que
es
lo
que
estamos
creando
en
este
momento
y
una
de
los
objetivos
del
de
el
cacatón
y
después
viene
una
etapa
de
21
en
que
que
es
donde
ajustamos
el
modelo
para
poder
hacer
distintas
cosas
distintas
funciones
el
más
común
que
pueda
dialogar
en
vez
de
simplemente
continuar
frases
podrán
mantener
un
diálogo
se
le
pueden
entrenar
para
que
escriba
código
para
muchas
cosas
ahí
también
hay
una
oportunidad
para
aplicar
el
de
ahí
está
en
español
para
hoy
por
ejemplo
algo
de
agricultura
o
lo
que
sea
que
esté
relacionado
con
el
medio
ambiente
pero
después
viene
la
tercera
parte
que
tal
vez
sea
la
más
importante
en
este
caso
que
es
alinear
ese
modelo
con
con
valores
humanos
yo
creo
por
eso
puse
de
esta
que
abajo
que
es
una
gran
oportunidad
para
considerar
valores
psicológicos
cuando
estemos
creando
este
este
gran
corpus
en
español
cuando
estemos
creando
modelos
y
alineándolos
con
valores
humanos
creo
que
que
es
un
gran
momento
incluso
para
crear
el
líder
en
español
porque
yo
creo
que
si
tuviéramos
una
métrica
en
el
líder
respecto
a
qué
tan
bueno
es
un
o
que
como
que
también
es
que
tan
bueno
es
el
modelo
cuando
responde
a
preguntas
ecológicas
o
que
tan
sostenible
ese
es
lo
que
el
modelo
responde
y
algún
taita
set
para
poder
evaluar
el
modelo
sería
también
un
gran
logro
para
para
este
acatón
y
para
el
español
en
general
porque
la
gran
ventaja
de
tener
ese
leaderboard
es
tener
una
parte
de
métrica
ecológica
no
es
solamente
el
hecho
de
poder
irlo
mejorando
nosotros
mismos
sino
que
podemos
también
crear
como
mencionaba
maría
también
en
su
presentación
podemos
crear
una
una
competencia
digamos
si
nosotros
podemos
demostrar
si
nosotros
entrenamos
un
modelo
de
cierta
forma
y
está
muy
bien
alineado
ecológicamente
incluso
mejor
que
modelos
propietarios
como
gpt4
o
o
jemini
eso
puede
influir
si
tuviéramos
suerte
influir
a
la
en
la
open
a
y
o
google
para
que
ellos
quieran
estar
al
tope
de
también
en
la
lineación
con
valores
psicológicos
sea
que
también
por
ahítenemos
un
muy
buen
trabajo
para
ser
en
la
parte
de
español
y
acá
le
voy
a
mostrar
unos
ejemplos
cuando
nosotros
hicimos
un
parte
del
trabajo
en
inglés
alineando
modelos
con
valores
ecológicos
utilizamos
distintos
modelos
para
eso
uno
de
ellos
fue
el
lama
2
de
7
mil
misiones
de
parámetros
y
entonces
por
ejemplo
acá
hay
una
pregunta
que
le
hicimos
al
modelo
que
es
que
que
discuta
los
beneficios
de
tener
una
una
gran
red
de
casas
y
vías
y
bueno
el
modelo
base
el
que
usamos
que
antes
de
entrenar
la
mados
no
nos
da
alguna
ventaja
que
dice
bueno
la
gente
puede
andar
más
en
las
caminos
y
bueno
y
si
hay
mejor
comunicación
y
que
va
a
haber
más
negocios
nos
dice
ciertas
ventajas
pero
no
no
consideran
ningún
momento
que
tener
una
una
red
que
está
en
contante
expansión
una
red
de
calles
y
autovías
que
están
en
contante
expansión
tienen
un
peso
ecológico
importante
sin
embargo
después
que
lo
que
lo
entrenamos
con
un
deita
set
específico
para
valores
ecológicos
que
es
que
lo
llevamos
el
harmon
y
deita
set
ahí
ya
mejora
y
nos
dice
que
bueno
si
si
bien
es
cierto
que
que
facilita
muchas
cosas
tener
esa
esa
net
esa
red
en
contante
expansión
en
la
parte
económica
también
impacta
el
invadero
el
ambiente
y
tiene
que
ser
diseñada
teniendo
con
las
tenibilidad
en
mente
esto
fue
un
gran
un
gran
logro
de
de
entrenar
con
con
el
harmon
y
deitos
y
otro
ejemplo
acá
con
otro
modelo
en
este
caso
ese
fir
7
y
le
preguntamos
cuáles
son
las
ventajas
de
tener
una
operación
de
minería
a
la
gran
escala
y
el
modelo
base
nos
dice
que
hay
ventajas
económicas
que
se
crean
trabajos
y
etcétera
y
que
se
extraen
recursos
naturales
para
que
se
usan
mucho
en
la
industria
sin
embargo
cuando
después
que
está
entrenado
con
el
modelo
que
está
alineado
feintión
con
el
con
el
modelo
con
el
deitas
y
harmony
nos
dice
que
si
bien
el
producto
tiene
esas
ventajas
de
que
haber
más
empleos
y
que
va
a
crecer
la
economía
también
tiene
un
impacto
muy
negativo
en
el
en
el
ambiente
y
en
las
comunidades
locales
a
esa
minería
lo
cual
también
es
una
muy
buena
respuesta
ahora
bien
nosotros
hicimos
otra
prueba
que
se
tomamos
uno
un
modelo
muy
bueno
como
es
el
el
open
armes
7000
visiones
de
parámetros
también
y
lo
y
lo
hicimos
a
través
de
depo
lo
entrenamos
en
este
caso
porque
los
previos
fueron
por
el
reinforcement
learning
tradicional
incluso
usamos
o
trae
de
en
face
pero
en
este
caso
utilizamos
depo
a
ver
qué
tal
funcionaba
y
creamos
un
nuevo
modelo
con
los
llamamos
caramonio
santía
de
ese
un
poco
las
el
los
lobos
de
los
modelos
no
dice
nos
dicen
que
lo
que
queremos
lograr
o
si
va
a
pasar
de
un
modelo
que
parece
ser
muy
fuerte
pero
también
ese
estamos
viendo
un
un
hombre
blanco
robótico
en
general
y
queremos
también
pasar
a
hacer
un
poco
más
diversos
en
el
sentido
de
bueno
ese
es
una
chica
de
teso
un
poco
más
oscura
y
pero
irrodiada
de
naturaleza
es
un
poco
lo
que
queremos
lograr
entonces
no
voy
a
leer
mucho
de
esto
porque
nos
vamos
a
quedar
sin
tiempo
pero
hicimos
la
prueba
en
inglés
le
dimos
un
número
de
preguntas
30
más
o
menos
y
y
bueno
y
entiendo
las
comparamos
por
gente
que
nos
ha
ayudado
a
hacer
esto
a
ver
si
mejoraba
o
quedaba
igual
lo
empeoraba
las
respuestas
a
los
promes
y
vimos
que
en
la
mayoría
de
los
casos
en
muchos
casos
mejoraba
creo
que
algo
así
como
el
30
40
por
ciento
depende
de
la
notador
mejoraba
notoriamente
cuando
la
respuesta
era
después
de
entrenar
con
el
jamón
y
leitas
pero
también
símos
otra
cosa
que
es
en
el
momento
y
tenemos
a
ayudar
en
este
proyecto
de
un
grupo
que
nos
la
parte
italiana
y
el
proyecto
también
incluye
español
y
portugués
en
este
momento
todavía
no
hemos
llegado
a
esa
tapa
pero
probamos
con
los
primeros
anotadores
en
italiano
y
y
bueno
y
si
bien
el
data
set
que
tenemos
el
harmony
data
set
es
100
por
ciento
inglés
notamos
que
usando
italiano
el
modelo
incluso
mejora
también
entonces
esto
fue
una
cosa
muy
interesante
nosotros
queríamos
justamente
una
de
las
preguntas
que
queríamos
contestar
con
este
ejercicio
queestamos
haciendo
es
si
va
a
haber
alguna
transferencia
lingüística
utilizando
sólo
en
inglés
y
bueno
en
este
momento
podemos
decir
que
sí
pero
bueno
quiero
hacer
hincapié
en
esta
parte
de
los
valores
no
están
confirmados
y
es
una
muestra
pequeña
o
sea
no
quiero
no
quiero
que
esto
quede
ya
como
que
es
algo
completamente
probado
pero
bueno
la
primera
impresión
que
nos
da
es
que
sí
que
hay
una
una
transferencia
de
interlingüística
porque
si
la
alineación
ecológica
mejora
entre
30
40
por
ciento
dependiendo
de
el
anotador
en
inglés
y
en
italiano
entre
25
y
30
por
ciento
evidentemente
hay
una
transferencia
podrán
ser
100
por
ciento
pero
hay
una
transferencia
ahora
como
podemos
explicar
esa
transferencia
creo
que
hay
dos
áreas
una
es
que
lingüísticamente
porque
hay
por
ejemplo
palabras
que
son
parecidas
en
él
y
especialmente
como
sabemos
más
que
palabras
en
el
world
en
bedding
lo
que
hay
son
son
tokens
son
partes
de
palabras
pueden
ser
raíces
de
palabras
que
son
exactamente
iguales
o
muy
parecidas
en
idiomas
indoeuropeos
como
son
el
inglés
y
el
italiano
español
entonces
lingüísticamente
tiene
un
sentido
de
que
de
que
haya
una
mejora
incluso
cuando
él
solo
en
inglés
el
data
se
después
la
otra
parte
que
puede
explicar
es
computacionalmente
porque
el
en
bedding
o
sea
ese
espacio
multidimensional
donde
tenemos
todos
los
tokens
una
vez
o
donde
supuestamente
están
todos
los
tokens
una
vez
que
se
hace
el
entrenamiento
ese
es
agnóstico
con
respecto
al
lenguaje
porque
fue
entrenado
con
inglés
y
con
otros
lenguajes
que
gran
mayoría
es
en
inglés
pero
está
todo
mezclado
en
ese
espacio
es
dimensional
esa
es
una
de
las
cosas
que
explica
que
bueno
que
no
ente
por
más
que
estemos
haciendo
el
data
set
en
inglés
el
en
bedding
es
agnóstico
con
respecto
al
lenguaje
la
otra
puede
ser
porque
hay
métodos
de
regularización
en
tpo
que
fue
la
técnica
que
utilizamos
para
que
no
hacía
lo
que
se
llama
el
overfitting
de
que
el
modelo
empiece
a
cambiar
todo
solamente
para
para
poder
hacer
el
trabajo
el
cual
se
le
está
entregando
en
mejor
forma
entonces
esa
regularización
lo
que
hace
es
que
no
se
aleje
demasiado
del
original
entonces
para
no
alejarse
demasiado
probablemente
las
distancias
vectoriales
que
hay
entre
entre
los
tokens
en
inglés
y
en
italiano
también
se
mantenga
en
alguna
forma
con
esa
regularización
entonces
ahora
vamos
un
poco
a
lo
que
creemos
que
debería
pasar
y
es
que
si
esto
es
cierto
que
hay
esa
transferencia
interlingüística
también
esto
se
debería
extender
sin
duda
las
lenguas
otras
lenguas
de
romance
como
si
lo
hicimos
en
italiano
esperamos
lo
mismo
en
español
en
portugués
en
valenciano
en
muchas
otras
lenguas
romances
e
incluso
indo
europeas
porque
el
inglés
no
es
romance
y
sin
embargo
hay
esa
transferencia
así
que
puede
haber
otras
indo
europeas
que
también
se
vean
beneficiadas
en
la
transferencia
lingüística
cuando
usamos
inglés
no
sin
embargo
cuando
usamos
las
no
indo
europeas
cuando
pensamos
en
las
no
indo
europeas
como
puede
ser
el
yukera
o
el
guaraní
o
lenguas
que
no
tienen
nada
en
común
con
las
indo
europeas
que
era
ese
es
más
bien
proto
europeo
puede
tener
quizás
pero
difícilmente
se
vea
reflejado
en
el
en
vez
de
o
sea
que
en
la
parte
lingüística
no
creemos
que
que
funcione
cuando
utilicemos
lenguajes
que
o
idiomas
que
no
son
indo
europeos
pero
la
parte
de
computación
al
si
debería
mantener
simplemente
le
quería
dar
esto
que
es
interesante
para
lo
que
sigue
porque
una
de
las
cosas
que
incluso
fue
una
pregunta
que
creo
quisieron
en
el
taller
si
creo
que
fue
el
taller
de
manos
que
hicieron
la
pregunta
de
que
alguien
hizo
un
algo
con
un
taita
set
en
español
y
vio
mejoras
también
en
inglés
en
el
modelo
y
bueno
yo
creo
que
puede
pasar
en
lo
mismo
si
nosotros
tenemos
un
taita
set
ecológico
en
español
no
sólo
va
a
afectar
la
parte
española
sino
sin
duda
las
o
con
mucha
probabilidad
mucha
probabilidad
de
que
pase
también
en
todas
las
lenguas
romances
y
quizás
en
otras
eindro
europeas
también
o
sea
inglés
entonces
es
otro
motivo
paratener
un
muy
buen
taita
set
ecológico
en
español
entonces
ahora
lo
que
les
quisiera
mostrar
capaz
que
puede
ver
aquí
directamente
es
el
taita
set
que
hemos
estado
utilizando
en
este
momento
que
es
parte
del
proyecto
que
llamamos
harmony
el
proyecto
consiste
del
taita
set
y
bueno
promocionado
el
discurso
sostenible
en
eis
el
principal
como
de
esto
voy
a
compartir
por
un
momento
y
ahora
se
ve
ahora
sí
sí
sí
sí
bien
perdón
pero
de
problemitas
técnicas
y
ayudarte
con
algo
bueno
muchas
gracias
bueno
acá
el
harmony
de
taita
set
que
es
el
de
valores
ecológicos
lo
tenemos
en
hagan
face
es
completamente
opensource
es
abierto
la
licencia
es
creativo
como
no
sé
si
a
cualquiera
lo
puede
usar
y
por
supuesto
que
están
más
que
invitados
me
gustaría
que
fuera
usado
en
este
proyecto
del
corpus
de
española
pienso
que
hay
mucha
forma
de
utilizarlo
entonces
es
un
un
taita
set
principalmente
para
finetuning
por
reforms
del
learning
por
dpo
les
voy
a
mostrar
la
versión
de
dpo
de
pio
primero
porque
es
es
bien
sencilla
y
está
hecha
para
específicamente
para
hacer
el
el
finetuning
o
el
dpo
e
incluso
los
los
12
en
las
dos
columnas
se
llaman
las
tres
columnas
exactamente
igual
como
van
a
estar
usadas
en
dpo
el
prompt
de
la
columna
chosen
y
la
rejecta
es
un
de
un
data
set
chico
en
términos
de
volumen
son
2000
filas
solamente
2000
entradas
y
pero
ese
es
muy
buena
calidad
que
nosotros
nos
embramos
mucho
en
eso
y
esto
nos
ha
permitido
estas
pruebas
de
concepto
de
la
que
le
he
mostrado
algunos
casos
por
la
forma
que
lo
hicimos
el
el
data
set
que
lo
vamos
a
ver
en
unos
segundos
entonces
es
muy
sencillo
en
el
sentido
de
que
bueno
tenemos
una
pregunta
y
bueno
cual
como
ha
sido
contestada
esa
esa
pregunta
tenemos
dos
opciones
y
en
lo
que
hicimos
fue
este
es
un
lindo
caso
porque
en
eco
lingüística
como
hablábamos
hace
unos
momentos
hay
diferentes
formas
de
analizar
el
discurso
de
la
misma
forma
que
lo
que
decía
frano
y
de
cómo
analizar
el
discurso
mediático
que
hay
diferentes
estructuras
en
algo
así
como
17
distintas
en
eco
lingüística
se
hace
algo
parecido
hay
hay
que
depende
del
autor
pero
hay
unas
9
10
diferentes
estructuras
cognitiva
como
se
llaman
en
en
eco
lingüística
para
analizar
los
discursos
y
una
de
esas
estructuras
son
las
metáforas
entonces
acá
por
ejemplo
en
esta
primera
pregunta
lo
que
estamos
haciendo
es
pidiendo
en
un
prompt
es
una
metáfora
sobre
algo
en
este
caso
de
los
cruceros
y
los
marcos
cruceros
a
ver
qué
responde
los
modelos
y
elegido
la
mejor
pero
y
bueno
después
a
veces
hacemos
más
de
dos
respuestas
tenemos
tres
en
general
tres
respuestas
entonces
las
ponemos
en
pares
por
eso
la
misma
pregunta
parece
tres
veces
son
las
tres
combinaciones
de
esas
respuestas
y
entonces
le
voy
a
mostrar
un
poco
más
este
es
el
data
set
mejor
para
usar
si
van
a
usar
de
de
peor
porque
ese
directamente
ya
tiene
los
las
columnas
como
deben
estar
formateadas
y
todo
eso
pero
si
vamos
al
data
set
original
este
es
más
completo
es
donde
estamos
juntando
los
datos
donde
estamos
el
que
estamos
manteniendo
un
montón
de
metade
de
data
también
para
saber
de
dónde
están
saliendo
sus
datos
y
cómo
y
tener
una
taxonomía
un
poco
como
lo
que
hablaba
Fran
también
en
términos
de
la
taxonomía
de
lo
que
estamos
tratando
de
mejorar
desde
el
punto
de
vista
ecológico
hay
información
acá
del
data
set
que
voy
a
leer
toda
pero
por
ejemplo
una
de
las
cosas
que
hacemos
en
términos
de
taxonomía
es
que
separamos
los
los
distintos
problemas
ecológicos
pues
a
veces
un
problema
puede
ser
el
clima
otro
puede
ser
la
polución
otro
puede
ser
el
matrato
animal
hay
muchos
problemas
ecológicos
y
lo
que
hicimos
fue
tomar
los
17
los
17
los
objetivos
de
desarrollo
sostenible
de
la
ONU
y
bueno
hicimos
una
clasificación
a
categorización
de
cómo
se
manifiestan
en
términos
ecológicos
y
bueno
y
al
final
los
redujimos
a
cinco
categorías
para
hacerlo
más
sencillo
esas
cinco
categorías
están
en
este
data
set
las
cinco
categorías
están
separadas
en
1
hot
en
code
por
cada
una
de
esas
categorías
porquehay
casos
que
el
mismo
pronto
o
la
respuesta
puede
estar
en
más
de
una
categoría
el
data
set
también
lo
separamos
por
lenguaje
es
otra
de
las
dimensiones
que
tiene
en
este
momento
el
lenguaje
y
localización
que
es
interesante
este
momento
van
a
ser
estas
entradas
son
todas
en
gb
porque
es
inglés
británico
pero
es
una
buena
oportunidad
para
extender
este
data
set
con
español
de
distintas
localidades
o
incluso
otras
lenguajes
que
los
idiomas
que
también
se
estén
hablando
en
el
mismo
país
que
el
lenguaje
españoles
tras
lenguas
oficiales
hay
muchos
datos
de
cada
prompt
y
y
como
fue
creado
no
vamos
a
entrar
en
todos
ellos
pero
una
cosa
que
quisiera
comentar
que
es
muy
importante
es
cómo
creamos
este
data
set
porque
como
sabemos
el
una
de
las
partes
más
difíciles
de
crear
un
data
set
de
preferencia
es
el
que
precisamos
de
feedback
humano
entonces
en
general
lo
que
se
hace
en
reinforcement
learning
es
que
bueno
primero
se
hace
prompt
después
eso
se
completa
por
distintos
modelos
y
los
humanos
están
en
su
versión
de
cual
es
mejor
o
peor
y
de
ahí
sale
el
data
set
de
preferencia
y
después
eso
se
usa
en
reinforcement
learning
nosotros
lo
que
hicimos
fue
un
pequeño
cambio
como
nosotros
sabemos
cuál
es
la
la
preferencia
por
usando
rol
en
roles
lo
que
hicimos
fue
instruimos
a
gpt
for
en
la
mayoría
de
los
casos
aunque
también
usamos
bar
y
usamos
el
ama
también
pero
en
la
mayoría
de
son
gpt
lo
instruimos
para
hacer
para
pensar
como
un
necolinguist
digamos
le
hicimos
el
system
prompt
diciendo
en
el
lugar
del
del
system
prompt
común
que
dice
bueno
eres
una
asistente
que
que
ayuda
mucho
bueno
nosotros
le
dijimos
eres
un
necolinguista
que
se
preocupa
mucho
por
el
ambiente
digamos
un
poquito
más
largo
en
esa
instrucción
al
sistema
pero
básicamente
es
eso
entonces
le
hicimos
completar
una
serie
de
prompts
que
creamos
con
la
ayuda
de
de
de
colinguistas
en
general
y
gente
que
aportó
al
proyecto
muchos
de
contribuyentes
y
esos
promos
los
hicimos
contestar
usando
roles
pasamos
el
prompt
por
la
ipi
salga
gpt
for
diciéndole
gpt
4
diciéndole
eres
un
necolinguista
contestan
estos
prompts
y
bueno
nos
contestaba
después
lo
pusimos
en
una
forma
adversaria
digamos
de
adversario
dijimos
bueno
ahora
eres
una
persona
que
no
tiene
noción
de
los
problemas
en
ambientales
contestan
los
estos
prompts
entonces
haciendo
eso
después
también
hicimos
algo
ambivalente
algo
que
hicimos
un
rol
en
el
que
era
una
persona
que
no
no
sabía
mucho
no
tenía
mucho
interés
en
el
ambiente
que
era
un
poco
agnóstico
entonces
creamos
esos
tres
roles
digamos
entonces
esos
qué
ventaja
nos
dio
que
ya
sabíamos
cuál
era
la
la
la
la
respuesta
preferida
o
la
o
la
choosing
y
rejector
como
se
como
tenemos
en
el
data
set
eso
nos
dio
una
gran
ventaja
porque
no
tuvimos
que
pasar
por
toda
la
etapa
de
feedback
porque
en
realidad
ya
ya
lo
estábamos
haciendo
antes
ese
feedback
si
se
quiere
lo
único
que
hicimos
fue
lo
pasamos
por
humana
por
verificación
humana
o
sea
yo
mismo
y
otros
personas
que
contribuyeron
con
esto
tratamos
de
validar
de
que
realmente
el
prompt
que
estaba
señalada
el
respuesta
que
estaba
señalada
como
más
alineada
ecológicamente
realmente
lo
era
y
si
lo
vimos
que
en
el
no
29
por
ciento
de
los
casos
era
ese
lo
que
pasaba
todavía
están
en
progreso
porque
a
veces
descubrimos
algunas
respuestas
que
podrían
estar
un
poco
mejor
o
que
eso
está
siempre
en
constante
progreso
entonces
bueno
nada
esto
es
principal
principalmente
lo
que
estamos
haciendo
en
este
proyecto
y
es
totalmente
abierto
y
bueno
como
les
decía
pienso
que
hay
pueden
salir
muchas
cosas
interesantes
de
aquí
en
términos
del
jacatón
y
más
allá
de
eso
yo
creo
que
podemos
ir
mucho
más
que
el
jacatón
y
que
debemos
o
sea
yo
lo
siento
como
yo
mismo
como
una
obligación
el
tema
del
cuidado
ecológico
como
son
un
momento
de
la
humanidad
como
decía
al
principio
aunque
no
tenemos
otra
opción
que
hacer
lo
que
sea
para
para
favorecer
la
sostenibilidad
en
todo
el
discurso
de
la
AI
porque
como
demostramos
omostramos
al
principio
es
el
alcance
que
tiene
ese
también
nunca
visto
antes
en
la
humanidad
entonces
creo
que
tenemos
una
gran
oportunidad
aquí
de
mejorar
esa
mala
relación
si
se
quiere
que
hemos
tenido
con
la
naturaleza
a
través
de
nuestra
historia
entonces
los
invito
a
participar
a
usar
este
data
set
acá
no
hay
nada
propietario
esto
estos
open
source
pueden
bajar
usando
directamente
usando
los
data
el
data
load
from
the
high-end
face
a
la
instrucción
también
hay
un
algunos
unas
partes
de
código
que
no
mucho
pero
pero
pueden
encontrar
en
kit
hape
cosas
que
hicimos
durante
las
pruebas
entonces
las
opciones
aquí
son
varias
se
puede
usar
este
data
set
como
complementario
cualquier
proyecto
que
estén
haciendo
para
hacerlo
ecológicamente
mejor
aunque
sea
sólo
por
la
transferencia
lingüística
que
hay
sabemos
que
nos
parece
por
lo
que
vimos
en
italiano
que
si
lo
usamos
en
español
va
a
mejorar
igual
de
alguna
forma
la
parte
la
parte
ecológica
pero
idealmente
si
el
proyecto
realmente
quiere
ir
más
allá
en
lo
ecológico
sería
ideal
o
bien
traducir
todos
estos
prom
y
y
las
respuestas
a
través
de
un
espacio
en
arquila
o
manualmente
usando
diéleos
o
lo
que
sea
o
mejor
aún
sería
extender
este
data
set
y
agregar
los
prontes
en
español
y
bueno
también
pasarlos
por
algún
espacio
donde
podamos
dar
feedback
o
usar
esta
esta
misma
metodología
que
usamos
aquí
de
de
usar
instrucciones
y
roles
para
para
crear
el
data
set
pero
en
lugar
de
hacerlo
en
inglés
es
a
lo
en
español
sea
que
pienso
que
pueda
haber
muchas
cosas
por
aquí
lo
otro
es
usarlo
para
como
parte
del
leaderboard
que
queremos
crear
y
ver
si
podemos
tener
en
métricas
ecológicas
y
sostenibles
en
los
modelos
que
no
sólo
miramos
los
modelos
por
lo
bien
que
que
razonan
y
no
sé
por
lo
bien
que
hacen
código
y
por
distintas
otras
benchmark
que
son
muy
importantes
y
realmente
determinan
que
tan
bueno
es
un
modelo
pero
sino
también
que
esto
sea
una
parte
fundamental
por
decir
no
quisiera
un
modelo
que
razonen
mejor
que
nadie
pero
que
sea
completamente
e
ignore
completamente
el
ambiente
entonces
bueno
nada
les
invito
a
usar
esto
y
y
bueno
cualquier
cosa
que
yo
pudiera
ayudar
con
mucho
gusto
pueden
encontrar
mi
datos
acá
mismo
en
haenfei
si
estoy
a
disposición
de
esto
y
bueno
nada
más
agradecerle
que
me
hayan
escuchado
y
poder
poner
un
granito
de
arena
por
por
la
ecología
y
nuestro
medio
ambiente
tan
dañado
que
bien
la
verdad
que
me
ha
encantado
las
dos
más
me
ha
gustado
de
hecho
también
me
gustó
mucho
el
comienzo
la
reflexión
sobre
el
sobre
el
poder
del
lenguaje
y
porque
también
tenemos
que
impulsar
desde
ahí
todos
los
valores
psicológicos
no
había
pensado
bueno
bueno
obviamente
sí
porque
la
youtube
muesta
de
charla
pero
hasta
entonces
nunca
se
me
hubiera
ocurrido
que
podía
tener
tanto
impacto
desde
este
punto
de
vista
o
sea
que
súper
interesante
además
me
han
cantado
que
se
me
encien
a
todas
las
chinos
anteriores
a
que
se
está
súper
súper
atento
así
sí
las
vi
todas
me
encantaron
todas
la
verdad
y
aparte
me
ha
gustado
mucho
el
proceso
porque
las
primeras
que
hubo
fue
como
en
esa
introducción
a
cómo
hacer
el
entrenamiento
y
bueno
y
hoy
estamos
hacia
la
parte
de
la
parte
de
la
parte
ética
o
sea
que
muy
bien
lo
verdad
que
me
encanta
cómo
está
haciendo
este
acatón
muchas
gracias
yo
voy
a
retomar
bueno
todos
los
bueno
bueno
este
este
vídeo
lo
voy
a
compartir
también
con
con
los
nuevos
equipos
porque
hay
gente
que
todavía
se
está
se
está
uniendo
ahora
y
está
buscando
proyectos
y
días
de
proyectos
entonces
a
ver
si
alguien
se
anima
a
tomar
ese
relevo
que
has
dado
no
a
estandar
este
data
set
que
tenéis
en
inglés
y
a
ver
si
podemos
crear
también
instrucciones
en
español
y
que
te
iba
a
decir
también
podría
ser
interesante
mirar
desde
la
parte
del
líder
por
lo
que
estabas
diciendo
de
intentar
evaluar
cómo
bueno
si
realmente
las
respuestas
de
nuestros
modelos
del
lenguaje
son
también
o
conscientes
digamos
si
vamos
a
una
vuelta
bueno
muchas
gracias
entonces
genial
muchasgracias
también
Jorge
espero
que
a
todo
el
mundo
haya
gustado
damos
por
finalizada
la
el
primer
día
de
que
nos
deja
catón
con
cuatro
3
que
nos
la
vía
no
la
incluyó
tres
que
no
es
súper
interesantes
y
nada
seguiremos
desarrollando
proyectos
y
con
más
que
nos
también
la
semana
que
viene
muchas
gracias
Jorge
y
también
a
todo
el
-
¡Suscríbete!
-
¡Suscríbete!
prawdaors. | Jorge Vallego |
Taller + AMA: Entrenamiento de LLMs, Alejandro Vaca @LenguajeNaturalAI | #Somos600M | Ahora
todo
el
mundo
ya
llevamos
dos
semanas
de
los
hackathon
somos
600M
y
estamos
viendo
proyectos
súper
interesantes
y
seguimos
avanzando.
Como
sabéis
el
objetivo
de
esta
iniciativa
es
crear
recursos
abiertos
y
de
calidad
de
crecimiento
de
la
lenguaje
natural
en
español
y
lenguas
oficiales
que
representen
la
diversidad
de
los
600
millones
de
personas
que
hablamos
español.
Hoy
es
lunes
o
sea
que
nos
toca
a
taller
aplicado
y
de
hecho
ahora
mismo
le
voy
a
dar
paso
a
Alejandro
pero
antes
tengo
una
noticia
y
es
que
resulta
que
nos
han
contactado
de
Latinx
en
IAI
para
invitarnos
a
mandar
los
proyectos
de
hackathon
o
de
la
comunidad
más
bien
en
general
a
su
workshop
de
la
conferencia
del
NACL.
Entonces
lo
hicimos
ya
en
la
edición
anterior
y
se
leó
genial
de
hecho
bueno
aquí
a
Alejandro
fue
a
presentar
su
proyecto
y
bueno
creo
que
es
súper
contentos
fue
un
poco
estresante
me
comentaba
porque
al
final
el
plazo
son
cortitos
y
bueno
es
una
comentadora
del
plazo
pero
bueno
creo
que
vale
mucho
la
pena
así
que
os
animo
a
presentar
a
vuestros
proyectos.
Como
os
comentaba
el
plazo
para
presentar
los
proyectos
es
el
29
de
marzo
vale
11
días
quedan
entonces
os
animamos
a
presentar
los
proyectos
no
queremos
limitar
los
recursos
para
bueno
para
que
podáis
llegar
a
tiempo
mejorarlos
en
vuestros
proyectos
y
tal
entonces
vamos
a
aumentar
os
vamos
a
dejar
a
utilizar
los
proyectos
a
los
recursos
durante
estos
cinco
días
adicionales
y
tampoco
queremos
dejar
en
desventaja
el
resto
de
equipos
que
nos
quieran
presentar
los
proyectos
entonces
bueno
básicamente
vamos
a
extender
la
fecha
del
hackathon
hasta
el
29
de
marzo
para
que
todo
el
mundo
pueda
seguir
disfrutando
de
los
recursos
y
podáis
enviar
los
recursos
súper
guays
obviamente
si
termináis
antes
pues
también
perfecto
y
pues
también
lo
último
de
decir
que
ya
que
estendemos
el
hackathon
casi
unas
semanas
pues
también
significa
que
volvemos
a
acertar
nuevos
proyectos
porque
tenéis
10
días
que
es
casi
el
tiempo
suficiente
para
presentar
un
proyecto
de
nuevo
entonces
bueno
si
alguien
se
ha
quedado
con
la
espinita
que
sepáis
que
os
podéis
unir
a
las
lo
tengo
apuntado
a
575
personas
que
ya
se
han
unido
a
nuestra
iniciativa
de
somos
600
m
entonces
bueno
vamos
a
presentar
a
nuestro
ponente
de
hoy
que
es
alejandro
vaca
él
es
ganador
de
varios
premios
como
el
primer
premio
del
kajamar
university
hack
2020
el
premio
al
mejor
data
scientist
del
hackathon
de
spain
y
a
2021
gracias
a
sus
dos
primeros
premios
y
un
tercer
premio
y
también
lideró
el
equipo
ganador
del
hackathon
somos
en
el
p
2022
con
el
proyecto
biomedia
que
también
presentó
el
ncl
2022
es
lo
que
os
comentaba
justo
ahora
obteniendo
el
primer
premio
a
mejor
presentación
de
post
term
además
ha
liderado
el
desarrollo
del
lm
senelí
desde
el
2019
con
el
desarrollo
de
los
modelos
de
compresión
de
texto
rogoberta
rogoberta
2
y
el
modelo
de
chat
rigo
chat
además
recientemente
ha
montado
su
propia
empresa
lenguaje
natural
punto
y
ahí
y
de
hecho
bueno
también
para
los
equipos
que
ganan
en
el
hackathon
vais
a
tener
acceso
exclusivamente
a
la
no
exclusiva
pero
de
los
primeros
accesos
a
los
a
sus
cursos
entonces
bueno
para
el
día
de
hoy
la
idea
es
que
os
va
a
mostrar
un
notebook
con
diversos
trucos
y
tal
para
entrenar
nuestros
lm
y
después
estará
a
vuestra
disposición
para
responder
todas
las
dudas
entonces
las
podéis
ir
escribiendo
en
el
chat
y
pues
bueno
al
final
del
taller
o
se
las
voy
leyendo
vale
pues
nada
alejando
todo
tuyo
muchas
gracias
maria
como
siempre
me
me
pones
por
las
nudes
ahora
yo
para
bajarlo
para
bajarlo
todo
bueno
bueno
buenos
días
buenas
tardes
o
buenas
noches
a
todos
dependiendo
de
en
qué
parte
del
mundo
estáis
escuchando
a
mí
la
verdad
es
que
me
gusta
pronunciarlo
lenguaje
natural
que
suena
como
un
poquito
más
un
poquito
más
español
no
bueno
como
ya
ha
dicho
maría
yo
os
voy
a
hablar
un
poco
del
entrenamiento
de
modelos
de
lenguaje
sobre
todo
vamos
a
enfocar
en
el
entrenamiento
demodelos
de
instrucciones
y
modelos
de
chat
o
conversacionales
de
acuerdo
entonces
sin
más
dilación
y
con
este
transformer
entrenando
entrenando
con
libros
por
cierto
por
si
no
os
habéis
dado
cuenta
no
son
no
son
discos
de
pesas
vamos
a
primero
contar
un
poquito
qué
es
lo
que
vamos
a
ver
en
el
día
de
hoy
vamos
a
ver
primero
pues
una
base
teórica
muy
cortita
será
muy
suave
que
además
es
lunes
y
luego
vamos
a
verlo
ya
en
formato
código
vale
os
dejo
por
aquí
también
el
código
QR
tanto
de
mil
y
que
vin
como
de
lenguaje
natural
punto
hay
vale
por
si
queréis
entrar
ahí
a
cotillar
un
poquito
no
os
cuento
qué
regalos
hay
también
en
la
charla
de
hoy
ya
que
aparte
de
lo
que
ha
contado
maría
que
es
que
los
tres
primeros
equipos
del
jacatón
tendrán
acceso
completamente
gratuito
al
curso
online
experto
en
procesamiento
de
lenguaje
natural
del
lenguaje
natural
punto
hay
para
todos
los
participantes
del
día
de
hoy
habrá
un
descuento
del
60
por
ciento
en
dicho
curso
vale
o
sea
que
bueno
para
los
que
os
quedéis
con
la
espinita
y
con
las
ganas
de
conocer
un
poquito
más
de
este
mundo
tan
maravilloso
del
procesamiento
del
lenguaje
natural
pues
a
ellos
lo
dejo
y
también
se
sorteará
una
mentoría
privada
de
30
minutos
conmigo
en
la
que
podréis
pues
utilizarme
para
intentar
mejorar
vuestros
proyectos
y
poder
ver
pues
un
poquito
más
en
detalle
algunos
aspectos
de
los
mismos
que
veáis
que
queréis
mejorar
vale
quedaros
hasta
el
final
y
os
cuento
cómo
cómo
canjear
estos
estos
pequeños
regalos
que
he
preparado
para
el
día
de
hoy
que
así
se
hace
un
poquito
menos
duro
el
lunes
entonces
vamos
a
ver
primero
qué
es
lo
que
vamos
a
aprender
hoy
en
primer
lugar
veremos
cómo
entrenar
eficientemente
modelos
de
lenguaje
para
instrucciones
o
chat
vale
entonces
veremos
los
míticos
lora
culora
y
este
tipo
de
métodos
también
veremos
cómo
procesar
estos
chats
adecuadamente
utilizando
las
herramientas
de
hagan
face
vale
y
es
que
es
importante
que
estos
chats
sigan
un
formato
muy
concreto
y
que
tengamos
este
template
o
esta
plantilla
integrado
directamente
en
nuestros
modelos
vale
esto
es
algo
que
tendréis
que
tener
en
cuenta
de
cara
a
esos
modelos
que
estéis
entrenando
para
el
hackathon
pero
aquellos
que
estáis
en
esta
charla
sin
participar
en
el
hackathon
también
podréis
seguro
sacar
mucho
provecho
de
todos
esos
trucos
no
además
veremos
pues
algunos
detalles
con
los
que
podemos
mejorar
al
mítico
lora
o
culora
vale
veremos
alguna
cosita
nueva
que
ha
ido
saliendo
para
mejorar
estos
métodos
y
en
último
lugar
pues
veremos
cómo
utilizar
autotransformers
una
librería
de
lenguaje
natural
punto
hay
para
integrar
pues
todo
esto
de
forma
sencilla
y
sin
esfuerzo
que
primero
lo
veremos
con
todo
con
librerías
de
hagan
face
vale
dejaremos
esto
para
la
para
la
última
parte
entonces
la
tabla
de
contenidos
sería
más
o
menos
esta
vale
vamos
a
empezar
haciendo
un
repaso
de
lora
veremos
luego
cómo
se
integra
con
culora
luego
veremos
rank
estabilized
lora
o
sea
un
lora
con
el
ranc
con
el
rango
estabilizado
y
veremos
también
el
método
neftune
y
long
is
more
for
alignment
que
es
un
paper
que
ha
salido
a
hacer
relativamente
poco
y
en
el
que
bueno
pues
gente
como
lego
y
tu
tal
ha
podido
comprobar
la
efectividad
del
del
mismo
vale
entonces
primero
veremos
cómo
hacer
lora
culora
y
rs
lora
todo
con
librerías
de
hagan
face
y
luego
para
el
último
paso
veremos
cómo
hacer
todo
eso
mismo
a
la
vez
más
neftune
y
esto
que
decía
tunstal
del
long
is
more
con
la
librería
autotransformers
entonces
esa
primera
parte
de
la
práctica
vamos
a
ver
que
tenemos
muchas
librerías
vale
vamos
a
trabajar
con
la
librería
transformers
vamos
a
trabajar
con
la
librería
peft
para
la
parte
del
lora
vamos
a
trabajar
con
la
librería
trl
también
vale
para
la
parte
del
trainer
y
demás
y
también
con
la
integración
aquí
tim
deadmars
se
enfadaría
un
poquito
con
mío
porque
puesto
luego
de
hagan
face
y
realmente
bits
and
bytes
no
es
una
librería
de
hagan
face
es
una
librería
de
tim
deadmars
pero
bueno
está
completamente
integrado
con
las
librerías
de
haganface
vale
y
forma
parte
al
final
pues
de
ese
ecosistema
y
luego
veremos
pues
cómo
puede
hacerse
todo
esto
de
una
forma
un
poquito
más
sencilla
con
algo
menos
de
dolor
como
digo
con
con
la
librería
autotransformers
con
el
fin
de
que
podáis
también
pues
entrenar
múltiples
modelos
en
secuencial
y
en
definitiva
que
la
máquina
haga
haga
el
trabajo
y
nosotros
pues
podamos
dedicarnos
más
a
la
parte
de
los
datos
que
al
final
es
lo
más
importante
y
es
la
iniciativa
principal
del
del
hack
atoni
donde
debemos
dedicar
la
mayor
parte
de
los
recursos
no
pues
vamos
a
empezar
haciendo
un
pequeño
repaso
del
del
lora
el
método
lora
y
lo
rancadápte
es
básicamente
una
de
las
gracias
que
tiene
es
que
no
modificamos
en
sí
mismo
los
pesos
del
modelo
original
y
esto
se
hace
mediante
matrices
de
bajo
rango
como
estas
que
podemos
ver
aquí
de
acuerdo
entonces
nosotros
dejamos
los
pesos
del
modelo
original
fijos
congelados
no
los
adaptamos
no
los
vamos
a
modificar
en
absoluto
y
lo
que
vamos
a
hacer
es
sumarles
a
esos
pesos
el
resultado
de
la
multiplicación
de
unas
matrices
de
bajo
rango
que
son
a
y
b
esto
se
hace
ajustándolo
con
un
parámetro
que
es
este
alfa
partido
de
r
si
alguno
ha
visto
ha
bajado
alguna
vez
con
la
librería
peft
sabéis
que
aparte
de
pasarle
el
mitico
rango
que
suele
ir
de
4
a
64
normalmente
aunque
se
puede
subir
un
cruz
un
poco
más
aparte
de
eso
normalmente
le
pasamos
también
el
parámetro
alfa
de
acuerdo
y
esto
lo
cuento
este
detalle
para
que
luego
entendamos
bien
en
qué
consiste
eso
del
rancé
estabiláis
lora
vale
entonces
como
vemos
le
sumamos
a
esa
matriz
de
pesos
original
v
doble
el
resultado
multiplicar
las
matrices
b
y
a
multiplicadas
por
ese
factor
de
alfa
partido
de
r
ya
nos
podemos
empezar
a
imaginar
viendo
esto
que
si
r
es
muy
grande
este
factor
de
aquí
se
puede
volver
demasiado
pequeño
vale
pues
bueno
vamos
vamos
a
ver
luego
cómo
puede
cómo
puede
afectar
eso
vale
una
de
las
gracias
que
tiene
el
método
lora
es
que
al
no
modificar
los
pesos
del
modelo
original
vamos
a
evitar
el
catastrófic
porgetting
que
es
uno
de
los
problemas
típicos
que
puede
haber
al
hacer
el
ajuste
fino
de
los
modelos
cuando
utilizamos
un
learning
rate
demasiado
alto
o
no
le
metemos
un
su
suficientes
pasos
de
warm
up
o
simplemente
los
datos
que
elegimos
están
muy
fuera
de
la
distribución
de
los
datos
de
la
distribución
de
los
datos
con
los
que
originalmente
se
entrenó
el
modelo
podemos
acabar
teniendo
una
pérdida
catastrófica
de
conocimiento
y
eso
en
el
caso
de
modelos
como
mistral
o
llama
pues
es
es
algo
dramático
porque
acabamos
teniendo
una
situación
en
la
que
perdemos
un
montón
de
conocimiento
súper
útil
que
se
había
generado
durante
el
preentrenamiento
del
mismo
no
es
una
de
las
gracias
de
esto
es
que
podemos
añadir
nuevas
capacidades
al
modelo
sin
perder
las
capacidades
del
modelo
original
conservando
las
mismas
además
como
podemos
ver
en
los
gráficos
de
abajo
en
los
que
se
extraen
por
cierto
del
paper
original
de
lora
si
comparamos
lo
que
es
hacer
lora
contra
el
finet
y
un
incompleto
pues
vemos
que
tienen
unos
resultados
prácticamente
similares
no
incluso
mejores
en
algunos
casos
y
esto
tiene
que
ver
también
con
que
es
muy
difícil
encontrar
ese
equilibrio
entre
cuál
es
el
batch
y
si
el
learning
rate
correcto
de
utilizar
a
la
hora
de
hacer
finet
y
uning
para
que
generalice
bien
a
una
nueva
tarea
no
cuando
hacemos
ese
finet
y
uning
de
todos
los
pesos
al
completo
ese
digamos
que
la
receta
que
necesitamos
encontrar
no
es
tan
sencilla
cuando
utilizamos
cuando
utilizamos
el
finet
completo
como
cuando
utilizamos
lora
no
que
al
estar
entrenando
un
conjunto
de
pesos
menor
pues
digamos
que
es
bastante
más
digamos
que
es
bastante
más
sencillo
luego
viene
el
método
culora
que
juega
con
el
hecho
de
que
podemos
utilizar
los
modelos
cuantizados
en
este
caso
se
van
hasta
la
cuantización
a
cuatro
bits
incluso
y
no
perdemos
demasiado
de
la
representación
original
de
los
modelos
entonces
al
no
perder
digamos
demasiado
del
conocimiento
que
tienen
esos
modelos
porpasarlos
de
16
o
de
32
bits
a
4
bits
en
este
caso
podemos
permitirnos
lo
siguiente
ya
que
yo
no
voy
a
actualizar
los
pesos
del
modelo
original
pues
bueno
voy
a
mantenerlos
aparte
de
congelados
cuantizados
a
cuatro
bits
solo
vale
que
como
veis
en
esta
representación
de
aquí
pues
eso
reduce
muchísimo
el
tamaño
del
modelo
y
aparte
voy
a
aplicar
lora
sobre
los
sobre
las
esas
matrices
no
entonces
aparte
de
esta
innovación
de
sobre
lora
en
la
que
utilizan
los
modelos
cuantizados
se
introducen
varias
modificaciones
también
en
primer
lugar
se
introduce
el
4
bit
normal
flow
que
es
un
nuevo
tipo
de
flow
de
cuatro
bits
que
produce
mejores
resultados
que
los
enteros
de
cuatro
bits
y
los
flows
de
cuatro
bits
habituales
y
esto
lo
podéis
ver
en
los
gráficos
de
aquí
abajo
cuando
comparan
lo
que
es
el
culora
completo
contra
la
representación
en
16
bits
veis
que
no
se
pierde
rendimiento
en
absoluto
no
además
aplican
una
doble
cuantización
en
la
que
se
cuantizan
también
las
constantes
de
cuantización
y
esto
reduce
aún
más
el
tamaño
del
modelo
de
nuevo
en
el
gráfico
de
la
derecha
podéis
ver
que
esto
no
reduce
lo
que
es
el
performance
el
rendimiento
del
modelo
no
baja
por
el
hecho
de
hacer
esa
doble
cuantización
y
además
introducen
una
nueva
mejora
añadida
que
son
los
optimizadores
paginados
los
page
optimizers
que
lo
que
producen
es
que
se
eviten
los
picos
de
memoria
la
hacer
gradient
checkpointing
con
consecuencias
muy
largas
vale
que
funcionan
de
esta
forma
que
podemos
ver
en
la
derecha
transmitiendo
los
gradientes
de
la
gpu
a
la
cpu
vale
entonces
esto
nos
permite
que
todos
desde
casa
podamos
entrenar
modelos
de
lenguaje
gigantes
porque
si
nos
vamos
hace
un
año
y
medio
un
modelo
de
7
billones
de
parámetros
es
un
modelo
gigante
aunque
ahora
lo
comparemos
con
otros
como
groc
que
salió
ayer
y
nos
parezca
muy
pequeñito
en
realidad
estamos
hablando
de
modelos
muy
grandes
y
el
hecho
de
que
esto
lo
podamos
entrenar
en
gpus
de
gaming
como
la
que
puede
tener
mucha
gente
en
su
casa
pues
es
algo
verdaderamente
fascinante
y
es
lo
que
ha
hecho
también
que
se
empuje
mucho
la
innovación
en
todo
este
campo
entonces
clara
es
una
técnica
fundamental
de
cara
a
que
podáis
entrenar
modelos
suficientemente
grandes
con
los
datos
que
habéis
generado
para
el
para
el
jacatón
acuerdo
está
es
una
técnica
que
no
puede
faltar
por
supuesto
pero
es
que
además
viene
más
y
es
que
hace
unos
meses
surgió
esto
del
rango
estabilá
es
lora
y
es
que
ocurría
lo
siguiente
con
lora
y
incluso
con
culora
observábamos
que
cuando
el
rango
de
esa
matriz
que
veíamos
antes
vuelvo
a
enseñarla
cuando
este
rango
era
demasiado
grande
lo
que
ocurría
es
que
no
estábamos
aprovechando
ese
rango
tan
grande
o
sea
por
el
hecho
de
hacer
más
grande
esa
matriz
que
en
principio
debería
darle
al
modelo
mayor
capacidad
de
captar
las
visitudes
de
ese
dominio
de
esa
tarea
en
concreto
no
estábamos
pudiendo
aprovecharlo
y
no
se
traducía
en
un
mejor
rendimiento
ni
en
un
mejor
aprendizaje
y
esto
lo
podéis
ver
en
este
gráfico
de
aquí
en
la
que
en
el
que
como
veis
de
hecho
empeora
el
rendimiento
del
modelo
cuando
le
subimos
el
rango
sobre
todo
por
encima
de
128
de
acuerdo
cuando
le
subimos
el
rango
por
encima
de
ese
número
ya
vemos
que
no
conseguimos
mejoras
de
hecho
empeora
el
método
y
esto
tiene
que
ver
con
las
explosiones
del
gradiente
o
los
gradientes
desvanecientes
y
esto
ocurre
por
ese
término
del
que
hablábamos
antes
que
por
eso
lo
he
enseñado
ese
término
de
ajuste
que
tenemos
aquí
de
gamma
su
r
que
es
igual
a
alfa
partido
de
re
vale
cuando
ese
término
se
sigue
la
la
formulación
de
la
hora
ese
término
se
puede
volver
demasiado
pequeño
y
eso
nos
lleva
a
problemas
y
entonces
estos
tipos
demuestran
que
cuando
eso
en
lugar
de
seguir
esa
forma
tiene
una
forma
más
del
tipo
1
partido
de
la
raíz
cuadrada
dr
aquello
es
bastante
más
estable
y
de
hecho
como
podemos
ver
en
los
gráficos
de
la
derecha
cuando
aplicamos
rancas
tabela
islora
si
que
vemos
que
aumentar
el
rango
hastalos
2048
como
sería
esperable
pues
sí
que
produce
mejoras
significativas
ya
que
le
estamos
dando
más
margen
al
modelo
más
pesos
al
modelo
para
poder
ajustarse
para
poder
adaptarse
a
ese
dominio
o
a
esa
tarea
específica
de
acuerdo
entonces
esto
simplemente
a
la
hora
de
implementarlo
simplemente
lo
aplicamos
así
vale
o
sea
simplemente
partimos
ese
parámetro
alfa
que
le
introducimos
al
que
le
introducimos
al
peft
lo
partimos
de
la
raíz
cuadrada
dr
y
en
peft
esto
ya
está
implementado
y
simplemente
tendremos
que
pasar
un
parámetro
us
rslora
igual
a
true
aquí
podemos
ver
algunos
resultados
sobre
el
empty
bench
vale
y
es
que
veíamos
que
cuando
aplicábamos
lora
con
un
rango
de
16
los
resultados
eran
prácticamente
iguales
que
cuando
aplicábamos
un
rango
de
256
que
en
realidad
luego
a
nivel
computacional
es
muchísimo
más
costoso
de
acuerdo
se
estamos
gastando
recursos
por
decirlo
de
alguna
manera
lo
tonto
vale
porque
no
estamos
traduciendo
ese
mayor
gasto
en
recursos
en
un
mejor
rendimiento
del
modelo
sin
embargo
cuando
aplicamos
rslora
con
el
rango
de
256
si
que
vemos
una
mejora
bastante
significativa
vale
tanto
en
el
primer
turno
como
en
el
segundo
turno
y
como
vemos
aquí
de
media
pues
la
mejora
ya
es
bastante
notable
entonces
vamos
a
ver
ahora
cómo
aplicar
esto
con
las
librerías
de
having
face
voy
a
enseñaros
para
yo
un
notebook
como
todas
las
dependencias
nos
vienen
con
autotransformers
simplemente
haciendo
pip
install
autotransformers
ya
vamos
a
instalar
peft
bits
and
bytes
transformers
data
sets
y
trl
creo
que
no
me
dejo
ninguna
ninguna
librería
que
son
las
librerías
que
vamos
a
utilizar
para
esto
vale
dejadme
un
segundo
que
cambie
el
kernel
aquí
ya
lo
tengo
yo
instalado
vale
entonces
hacemos
el
importe
las
librerías
y
lo
primero
con
lo
que
nos
encontramos
es
con
la
plantilla
de
chat
diréis
que
es
esto
del
chat
template
que
es
esta
string
tan
rara
que
nos
está
poniendo
este
señor
aquí
por
favor
es
lunes
basta
de
brome
bueno
pues
esta
string
tan
rara
es
lenguaje
y
ya
que
es
un
lenguaje
para
definir
plantillas
esta
plantilla
lo
que
define
es
un
bucle
sobre
una
serie
de
mensajes
en
el
que
en
función
del
rol
que
tengamos
en
ese
en
cada
uno
de
los
mensajes
pues
vamos
a
formatear
la
string
de
una
manera
vale
entonces
cuando
viene
un
rol
user
vamos
a
coger
el
contenido
y
le
vamos
a
hacer
un
bocadillo
con
un
tag
de
user
y
un
cierre
del
tag
de
user
asimismo
cuando
nos
viene
un
mensaje
del
sistema
que
sería
el
mensaje
del
sistema
de
nuestro
chatbot
o
de
nuestro
modelo
instruccional
le
vamos
a
hacer
también
un
wrapper
con
ese
hashtag
de
sistema
y
el
cierre
del
sistema
y
para
la
asista
vamos
a
añadir
simplemente
el
cierre
vale
y
vamos
a
asumir
que
la
asista
viene
siempre
después
del
user
entonces
el
cierre
del
user
va
a
ser
en
realidad
el
inicio
de
la
asista
con
lo
cual
aquí
podemos
meter
simplemente
el
cierre
y
muy
importante
le
añadimos
también
el
token
de
final
de
secuencia
y
esto
es
súper
importante
porque
es
lo
que
va
a
favorecer
que
este
asista
no
se
quede
hablando
eternamente
sino
que
sepa
más
o
menos
cuando
parar
que
esté
acostumbrado
a
generar
ese
token
de
final
de
secuencia
y
que
por
lo
tanto
cuando
luego
lo
vayamos
a
poner
en
producción
o
vayamos
a
poner
a
probar
nuestro
modelo
este
modelo
nos
dé
unas
respuestas
en
las
que
oye
pues
sepa
cuando
cuando
callarse
no
que
eso
también
también
es
importante
no
solamente
saber
qué
decir
sino
también
saber
en
qué
momento
terminar
de
hablar
y
adicionalmente
como
vamos
a
utilizar
contextos
adicionales
y
esto
también
pues
os
sirve
si
alguno
estáis
utilizando
contextos
adicionales
en
vuestra
construcción
del
corpus
si
tenemos
un
input
en
el
rol
input
pues
le
vamos
a
hacer
también
un
bocadillo
con
esta
señal
esta
marca
de
abrir
el
input
y
este
cierre
del
vale
entonces
ahora
vamos
a
ver
en
un
ratito
cómo
aplicamos
este
chat
template
vale
a
través
del
toquenizador
a
todos
nuestros
chat
de
momento
ejecutamos
y
vamos
ahora
a
hacer
la
carga
del
data
set
he
decidido
a
utilizar
el
data
set
del
jacatón
del
año
pasado
somos
en
el
pque
fue
una
traducción
del
alpaca
pues
se
limpió
luego
con
con
ayuda
de
argila
estoy
viendo
preguntas
que
compartís
es
el
colab
que
vale
el
colab
lo
tenéis
os
lo
voy
a
ir
pasando
vale
os
paso
el
link
vale
porque
esto
lo
tengo
subido
está
público
dadme
medio
segundo
y
lo
voy
a
subir
por
aquí
lo
voy
a
pasar
por
el
chat
para
que
lo
tengáis
todos
disponible
y
podáis
seguirlo
en
en
git
hub
digo
en
google
colab
disculpad
que
hablar
y
a
la
vez
estar
buscando
esto
no
se
me
cortan
los
circuitos
vale
a
ver
lo
tengo
casi
vale
voy
a
copiaros
el
link
por
aquí
por
el
chat
medio
segundín
que
me
pide
autenticarme
con
la
cuenta
de
youtube
esto
pues
cosas
del
cosas
del
directo
vale
y
así
podéis
seguirlo
mientras
lo
estoy
haciendo
yo
que
seguro
que
es
mucho
más
útil
para
para
todos
ya
me
está
dejando
entrar
vale
publico
el
comentario
por
aquí
vale
ahí
tenéis
el
link
no
me
ha
dejado
comentarlo
no
sé
si
lo
puede
pasar
marías
lo
voy
a
dejar
aquí
por
el
chat
privado
vale
así
cuando
pueda
lo
comparte
vale
entonces
volvemos
a
nuestro
código
después
de
cargar
el
el
data
set
vamos
a
generar
una
función
para
mapear
este
data
set
al
formato
que
esperamos
vale
al
formato
deseado
entonces
primero
le
vamos
a
añadir
el
sistema
el
mensaje
del
sistema
y
esto
se
añade
los
chat
van
a
ser
una
lista
vale
o
sea
cada
chat
va
a
ser
una
lista
con
diccionarios
con
dos
llaves
rol
y
content
en
primer
lugar
tendremos
que
meter
el
sistema
en
este
caso
pues
le
decimos
que
eres
un
asistente
que
resuelve
las
instrucciones
del
usuario
si
se
proporciona
contexto
adicional
utiliza
esa
información
para
completar
la
instrucción
lo
pongo
un
poquito
más
grande
para
que
lo
veáis
todos
bien
en
segundo
lugar
vamos
a
añadir
el
input
si
éste
existe
porque
hay
algunas
instancias
del
data
set
en
las
que
no
tenemos
un
contexto
adicional
si
el
input
no
es
non
e
y
no
es
una
cadena
vacía
lo
añadimos
de
acuerdo
entonces
añadimos
un
diccionario
que
sea
el
rol
input
y
luego
el
contenido
y
luego
le
hacemos
una
extenta
a
esa
lista
para
añadirle
la
intervención
tanto
del
usuario
con
el
rol
user
como
la
de
la
sista
de
acuerdo
y
esto
nos
va
a
dejar
luego
una
columna
messages
que
va
a
tener
una
lista
como
ésta
que
hemos
creado
a
lo
largo
de
a
lo
largo
de
esta
función
entonces
esta
función
la
podemos
aplicar
a
todos
los
elementos
del
data
set
con
el
método
map
la
aplicamos
que
no
había
ejecutado
esta
celada
se
está
cargando
alejandro
si
una
cosa
el
enlace
de
hijab
si
que
va
pero
el
colab
no
lo
puedes
abrir
en
colab
y
compartir
el
colab
porque
no
o
sea
tampoco
creo
que
la
gente
asistentes
puedan
abrirlo
no
se
abre
esto
no
a
ver
vale
a
ver
bueno
de
igual
lo
abro
desde
aquí
si
o
sea
si
compartes
la
url
y
ya
la
compartes
no
me
deja
mi
abrirlo
tampoco
desde
el
cola
y
desde
desde
cola
puedes
dejar
puedo
quitar
de
pantalla
si
les
llevamos
todos
estos
colab
espera
lo
subo
si
no
dame
un
segundo
voy
a
abrir
el
google
cola
directamente
y
lo
subo
como
un
notebook
si
lo
que
no
funciona
es
el
enlace
luego
lo
relleno
igual
mítico
de
que
lo
haces
en
cola
y
lo
guardas
y
después
lo
modificas
en
githab
o
algo
así
y
al
final
no
están
no
sé
algo
pasó
ahí
mientras
tanto
si
no
es
mucho
para
abrir
tu
cerebro
o
cuando
quitarlo
buscando
cosas
y
respondiendo
si
quieres
te
preguntan
cuáles
son
los
requisitos
mínimos
para
correr
en
local
esto
corre
con
15
gigas
esto
que
vamos
a
ver
hoy
o
sea
yo
lo
diseñé
para
que
corra
en
una
gpu
de
hasta
15
gigas
como
las
que
nos
dan
en
google
cola
estoy
copiando
el
enlace
al
al
cola
vale
lo
paso
a
ver
si
me
deja
ponerlo
aquí
en
los
comentarios
no
me
deja
comentar
no
me
deja
ponerlo
creo
que
es
stream
yard
piensa
que
estoy
haciendo
algo
malo
vale
te
lo
pasa
a
ti
y
mirá
si
lo
puedes
poner
si
vale
perfecto
ya
sí
que
ahora
sí
entonces
esto
debería
debería
dejarlo
ejecutar
en
google
colapsing
problema
perfecto
yo
por
la
mayor
velocidad
en
el
en
el
seminario
lo
voy
a
hacer
aquí
en
local
pero
vamos
corre
igual
y
revise
en
todo
momento
que
la
gpu
no
pasará
de
no
pasará
de
los
de
los
15
gigas
de
uso
de
memoria
vale
si
alguno
tenéis
una
gpu
más
potente
o
bueno
me
comentaba
maría
quelas
gpu
del
jacatón
tienen
hasta
24
gigas
como
está
que
estoy
utilizando
yo
ahora
en
esas
podéis
subirle
ahora
lo
veremos
donde
el
tamaño
de
secuencia
vale
si
si
queréis
podéis
subirle
el
tamaño
de
secuencia
a
8192
y
probablemente
no
haya
ningún
problema
eso
sí
armaros
un
poquito
más
de
paciencia
porque
tardará
tardará
un
poco
más
bueno
entonces
vemos
que
con
el
método
más
le
podemos
llamar
a
este
proceso
al
paca
vale
y
ya
nos
va
a
dejar
un
data
set
que
tiene
esta
pinta
que
tiene
esta
pinta
vale
tenemos
aquí
los
meses
10
entonces
si
yo
busco
pues
el
primer
elemento
de
ese
data
set
y
vemos
los
meses
tienen
esta
pinta
vale
tenemos
una
lista
que
está
formada
por
diccionarios
vale
pues
por
ejemplo
escribió
una
reseña
de
libro
los
juegos
del
amno
y
aquí
pues
tenemos
lo
que
dice
el
asistente
entonces
ahora
vamos
a
la
definición
de
los
argumentos
de
entrenamiento
aquí
para
que
esto
corra
tranquilamente
en
google
colab
le
puse
un
batch
size
de
1
vale
pero
con
un
gradient
accumulation
steps
de
16
esto
es
importante
para
que
tengamos
un
batch
size
decente
vale
porque
si
entrenamos
de
uno
en
uno
no
vamos
a
aprender
mucho
de
todas
formas
cuando
entrenamos
como
de
con
lora
o
con
culora
podemos
utilizar
batch
size
más
bajos
que
los
que
solemos
utilizar
cuando
hacemos
un
finciunin
completo
con
lo
cual
con
un
batch
size
entre
4
y
16
normalmente
funciona
bien
tampoco
es
fácil
hacer
funcionar
bien
a
estos
métodos
de
lora
o
estos
métodos
de
culora
con
batch
sizes
por
encima
de
16
vale
cuando
subimos
de
los
16
cuesta
un
poquito
más
hacerlo
aprender
le
metemos
un
pequeño
warm
up
radio
también
el
learning
rate
lo
cogemos
directamente
del
paper
de
culora
vale
este
es
el
rango
de
learning
rates
que
se
suelen
utilizar
cuando
entrenamos
loras
están
en
el
orden
del
m
-
4
entonces
en
función
de
si
el
modelo
es
más
grande
más
pequeño
pues
podremos
utilizar
un
batch
en
un
learning
rate
un
poquito
más
grande
o
más
pequeño
si
utilizamos
modelos
por
encima
de
los
7
billones
de
parámetros
o
mejor
dicho
por
encima
de
los
13
normalmente
pues
querremos
bajar
un
poquito
este
le
re
en
ré
y
le
pondremos
a
lo
mejor
1
de
-4
con
este
modelo
tan
pequeñito
en
realidad
podríamos
ponerle
13
-
4
y
iría
bastante
bien
también
vale
o
sea
ahí
luego
pues
la
gracia
es
experimentar
también
con
estos
valores
y
también
para
eso
está
el
jacatón
no
para
que
para
que
podáis
experimentar
entonces
luego
le
ponemos
un
scheduler
constante
vale
esto
también
es
otra
diferencia
con
lo
que
es
el
típico
fine
tuning
en
el
que
solemos
tener
un
scheduler
lineal
de
cayente
aquí
normalmente
mantenemos
el
learning
rate
constante
a
lo
largo
del
entrenamiento
vale
luego
pues
tenemos
aquí
otros
parámetros
como
el
max
gran
norm
a
0
con
3
que
suele
funcionar
bastante
bien
para
favorecer
también
que
no
haya
olvido
catastrófico
vale
esto
también
ayuda
muchos
de
estos
parámetros
están
sacados
del
trabajo
de
guanaco
y
de
otros
trabajos
que
ha
habido
en
los
últimos
meses
con
modelos
de
tipo
culóra
vale
que
funcionan
bastante
bien
luego
vemos
que
tenemos
este
optimizador
paginado
de
adam
vale
ya
hemos
visto
antes
que
el
método
culora
trabaja
con
optimizadores
paginados
ya
está
integrado
directamente
en
transformers
utilizamos
gradient
checkpointing
porque
si
no
de
otra
manera
probablemente
sí
vamos
a
tener
problemas
de
memoria
sobre
todo
en
en
google
cola
y
luego
pues
tenemos
otros
parámetros
como
cada
cuántos
steps
queremos
guardarlo
y
cada
cuántos
steps
queremos
evaluar
al
modelo
vale
yo
en
mi
caso
aquí
también
tengo
puesto
bf
16
a
true
vale
pero
esto
sólo
vale
en
arquitectura
san
pere
con
lo
cual
cuando
estéis
utilizando
google
colab
esto
habrá
que
cambiarlo
por
fp
16
igual
a
tru
vale
entonces
vamos
a
definir
los
parámetros
los
argumentos
del
entrenamiento
y
ahora
vamos
a
cargar
el
toquenizador
vamos
a
cargar
directamente
el
modelo
de
gema
2b
utilizamos
un
tamaño
máximo
de
secuencia
de
4096
de
nuevo
si
estáis
utilizando
gpu
de
24
gigas
podéis
subir
esto
un
poquito
yprobablemente
con
8192
todavía
os
quepa
esto
también
depende
mucho
del
vuestro
data
set
si
en
vuestro
data
set
no
tenéis
datos
que
vayan
a
llegar
a
los
4096
bueno
pues
esto
no
tiene
no
tiene
mucho
efecto
vale
pues
cargamos
el
toquenizador
le
pasamos
toquen
igual
a
tru
si
estáis
en
google
colab
o
en
un
entorno
remoto
por
favor
acordaros
de
hacer
hagan
face
la
login
de
acuerdo
la
hacemos
hagan
face
la
login
para
pasarle
nuestro
toquen
de
hagan
feis
ya
que
los
modelos
gema
nos
piden
autorización
vale
para
poder
acceder
a
ellos
el
acceso
es
gratuito
y
está
abierto
a
todo
el
mundo
pero
hay
que
pedirles
permiso
primero
como
ocurría
al
principio
creo
que
ya
no
con
los
modelos
de
llama
2
vale
entonces
bueno
no
os
olvidéis
de
hacer
esto
porque
si
no
os
va
a
dar
un
error
en
algún
en
algún
sitio
luego
cosas
importantes
hay
que
añadirle
el
toquen
especial
de
pade
vale
esto
es
súper
importante
también
porque
no
queremos
que
el
toquen
de
pade
y
el
de
fin
de
secuencia
sean
el
mismo
esa
es
una
mala
práctica
de
cara
a
entrenar
modelos
para
instrucciones
vale
esto
también
es
importante
que
lo
tengamos
en
cuenta
y
aquí
es
donde
viene
el
chat
template
esa
string
tan
fea
que
habíamos
definido
antes
la
vamos
a
meter
en
este
apartado
vale
simplemente
toquen
aizer
punto
chat
template
es
igual
a
chat
template
luego
veremos
cómo
aplicarlo
ya
veréis
que
está
súper
impegado
esto
en
hagan
feis
vamos
a
ejecutar
vaya
antes
lo
digo
voy
a
hacer
el
hagan
feis
el
a
login
esto
es
lo
que
pasa
por
borrar
la
caché
vale
entonces
le
pego
mi
toquen
y
esto
nos
va
a
cargar
el
toquenizador
de
acuerdo
entonces
ahora
necesitamos
definir
una
función
de
formateo
del
chat
y
esta
función
lo
único
que
va
a
hacer
es
para
cada
uno
de
esos
mensajes
que
teníamos
antes
o
sea
para
cada
una
de
esas
listas
que
tienen
los
mensajes
en
ese
formato
de
diccionarios
vamos
a
hacer
un
aplica
template
y
simplemente
utilizándose
esa
plantilla
de
ginga
que
hemos
definido
antes
ya
esto
nos
va
a
dejar
los
mensajes
en
un
formato
perfecto
para
el
modelo
todos
en
el
mismo
formato
vale
es
muy
importante
luego
que
esto
lo
utilicemos
también
en
inferencia
ya
que
si
no
vamos
a
enseñar
al
modelo
con
un
tipo
de
chat
y
luego
le
vamos
a
pedir
que
funcione
con
otro
tipo
de
chat
si
esto
no
va
a
ser
posible
esto
es
para
evitar
esa
práctica
tan
horrible
de
crear
funciones
que
pegan
strings
y
que
dentro
de
una
string
luego
le
metes
el
mensaje
del
usuario
y
tal
eso
es
una
malísima
práctica
entonces
para
evitar
todo
esto
la
gente
de
hagan
feis
muy
amablemente
pues
han
introducido
este
tema
de
los
chat
templates
vale
que
nos
ayuda
muchísimo
y
nos
facilita
muchísimo
la
vida
aquí
lo
vamos
a
poner
con
toquen
a
isa
false
porque
es
lo
que
espera
el
trainer
de
sct
vale
de
la
librería
terriere
y
simplemente
ya
lo
que
vamos
a
devolver
en
este
format
chat
es
textos
completos
vale
vamos
a
devolver
una
lista
de
textos
entonces
metemos
esto
aquí
vamos
a
ahora
definir
el
lora
aquí
vamos
a
definirle
un
rango
bastante
alto
este
o
este
valor
de
nuevo
va
a
depender
mucho
de
los
recursos
que
tengamos
si
tenemos
a
nuestra
mano
una
gpu
pues
eso
de
24
gigas
como
estas
que
tenéis
al
alcance
para
el
jacatón
podéis
probar
incluso
con
un
valor
un
poquito
más
alto
mientras
mantengáis
el
tamaño
de
secuencia
en
4.096
y
vais
a
ver
que
utilizando
el
reselora
esto
os
va
a
ofrecer
algunas
ventajas
vale
es
muy
importante
utilizar
el
reselora
porque
si
no
nos
sirve
de
nada
utilizar
este
64
aquí
podemos
simplemente
utilizar
16
y
nos
va
a
salir
más
a
cuenta
luego
definimos
el
alfa
de
32
que
es
un
valor
que
suele
funcionar
bien
en
líneas
generales
también
una
cosa
que
se
ve
en
el
paper
de
culora
es
que
debemos
aplicar
lora
en
todas
las
capas
lineales
y
esto
es
un
poco
para
compensar
esa
cuantización
del
modelo
mientras
que
en
el
paper
del
hora
solamente
se
aplicaba
esa
esa
proyección
algunas
de
las
capas
lineales
como
era
en
la
matriz
q
y
k
en
este
caso
lo
vamos
a
aplicar
a
todas
las
capas
lineales
del
modelo
vale
tanto
a
las
proyecciones
up
and
down
y
a
todas
las
capas
lineales
entonces
estosimplemente
en
lora
config
simplemente
tenemos
que
definirlo
como
online
y
vamos
a
definir
un
dropout
de
010
como
una
rule
of
thumb
tenemos
aquí
lo
dejo
para
que
lo
tengáis
que
normalmente
un
valor
de
0
con
1
para
los
modelos
de
menos
de
13
billones
de
parámetros
funciona
bien
y
que
si
son
modelos
más
grandes
podemos
utilizar
un
valor
un
poquito
más
bajo
de
0
con
05
y
funciona
bastante
bien
eso
vale
entonces
así
definimos
este
entrenamiento
con
lora
vamos
a
definir
también
con
bits
and
bytes
lo
que
es
la
configuración
de
culora
cargamos
el
modelo
en
4
bits
vamos
a
utilizar
doble
cuantización
para
ahorrar
un
poquito
más
de
espacio
en
memoria
utilizamos
el
normal
flow
de
4
bits
vale
como
tipo
y
luego
para
los
cálculos
vamos
a
utilizar
en
mi
caso
b
flow
16
en
el
caso
de
que
estéis
en
arquitecturas
no
han
pere
por
favor
cambia
cesto
por
flow
16
vale
ya
que
de
otra
manera
nos
va
nos
va
a
funcionar
entonces
los
que
estéis
ahora
mismo
en
google
colab
cambia
lo
por
flow
16
ejecutamos
esto
cargamos
el
modelo
pasándole
la
configuración
de
cuantización
le
decimos
de
nuevo
que
toquen
igual
a
tru
vale
porque
sino
no
nos
va
a
dejar
hacerlo
y
eso
lo
voy
a
ir
ejecutando
ya
porque
tardará
un
poquito
en
cargarlo
y
luego
tenemos
que
utilizar
estas
funciones
de
pf
para
preparar
el
modelo
para
entrenamiento
cuantizado
vale
entonces
le
pasamos
esta
función
de
preparer
model
4
kbit
reining
se
lo
pasamos
al
modelo
y
le
decimos
que
vamos
a
usar
gradient
checkpointing
y
luego
ya
tenemos
el
modelo
simplemente
llamando
a
get
get
peft
model
vale
pasándole
el
modelo
y
la
configuración
del
hora
que
hemos
definido
previamente
cuando
activamos
el
gradient
checkpointing
importante
le
tenemos
que
pasar
yuz
kase
yuz
kache
igual
a
force
de
acuerdo
entonces
esto
ya
lo
tenemos
y
ahora
una
cosa
que
es
también
súper
importante
y
que
esto
se
ha
demostrado
que
además
es
vital
para
tener
buenos
resultados
en
el
entrenamiento
de
instrucciones
de
nuevo
créditos
para
el
equipo
del
proyecto
guanaco
que
fueron
de
los
primeros
que
empezaron
a
decir
estas
cosas
y
tenían
toda
la
razón
del
mundo
yo
luego
experimentado
con
esto
y
sin
esto
y
definitivamente
cambia
la
cambia
la
historia
el
caso
es
que
hay
algunos
algunas
capas
en
concreto
las
capas
del
hora
tenemos
que
asegurarnos
por
supuesto
de
que
están
en
b
flow
16
o
si
estáis
en
arquitectura
no
amperé
en
flow
16
pero
luego
las
capas
de
normalización
necesitamos
que
tengan
mucha
precisión
esas
capas
son
muy
importantes
que
tengan
mucha
precisión
y
es
por
eso
que
las
usamos
en
flow
32
directamente
vale
esas
capas
de
normalización
las
vamos
a
tener
en
flow
32
además
la
cabeza
del
modelo
de
lenguaje
y
la
matriz
de
embeddings
del
inicio
del
modelo
de
lenguaje
las
vamos
a
querer
tener
en
b
flow
16
también
de
nuevo
esto
si
estáis
en
google
colab
por
favor
flow
16
en
lugar
de
b
flow
16
vale
entonces
esto
es
algunos
ajustes
de
los
tipos
para
decir
vale
que
tenemos
el
modelo
cuantizado
a
4
bits
pero
no
queremos
tener
todo
el
modelo
cuantizado
a
4
bits
habrá
algunos
pesos
que
querremos
tener
en
una
precisión
mayor
para
evitar
perder
demasiado
rendimiento
vale
estos
son
los
pesos
que
se
ha
demostrado
que
tienen
mayor
impacto
a
la
hora
de
cuantizarse
si
los
cuantizamos
vamos
a
perder
rendimiento
y
eso
por
supuesto
es
algo
que
no
queremos
así
que
los
pasamos
al
tipo
adecuado
entonces
una
vez
tenemos
esto
ya
podemos
pasar
a
definir
el
trainer
y
entrenar
para
eso
definimos
el
sft
trainer
le
pasamos
el
modelo
le
pasamos
los
argumentos
de
entrenamiento
que
hemos
definido
previamente
el
data
set
de
entrenamiento
el
de
validación
una
función
para
formatear
el
chat
que
ya
hemos
definido
antes
y
que
utiliza
ese
apply
chat
template
y
un
tamaño
máximo
de
secuencia
que
en
este
caso
lo
hemos
fijado
en
4096
una
vez
el
trainer
está
definido
ahora
está
mapeando
generando
el
el
data
set
tokenizado
podemos
llamar
al
método
frame
entonces
vamos
a
ver
ahora
cómo
empieza
a
entrenar
el
modelo
no
nos
vamos
a
quedar
por
supuesto
aquí
esperando
a
quetermine
de
termine
de
entrenar
el
modelo
porque
tardará
bastante
vale
simplemente
nos
quedamos
aquí
viendo
pues
que
esto
funciona
adecuadamente
vale
ya
veis
que
está
ya
aquí
lo
queando
la
pérdida
vamos
a
comprobar
el
uso
de
la
memoria
de
gpu
bueno
veis
que
ahora
mismo
está
en
9
gigas
nada
más
vale
con
lo
cual
os
sobra
completamente
con
los
15
gigas
de
una
gpu
de
google
colac
para
para
entrenar
con
el
data
set
alpaca
que
quizás
pues
no
tiene
no
tiene
más
de
un
turno
y
por
lo
tanto
pues
no
van
a
no
va
a
ser
demasiado
grande
ninguno
de
los
ejemplos
que
tengamos
aquí
vale
si
estamos
utilizando
un
data
set
un
poco
más
grande
es
posible
que
sí
que
se
llegue
a
ese
máximo
de
4096
que
hemos
marcado
y
por
lo
tanto
pues
ahí
pues
tendríamos
que
hacer
algunos
otros
algunos
otros
ajustes
vale
pero
ya
veis
que
ahora
mismo
me
está
ocupando
9
gigas
esto
y
bueno
le
quedarían
unas
tres
horas
y
como
aunque
seguro
que
además
de
uno
sobre
todo
para
los
que
es
sea
la
mañana
ahora
mismo
os
encantaría
pasar
tres
horas
de
un
lunes
viendo
aquí
logs
de
un
modelo
de
lenguaje
vamos
a
detener
de
momento
este
entrenamiento
y
vamos
a
volver
un
segundo
a
la
presentación
bueno
entonces
ahora
vamos
a
hablar
de
neftune
neftune
es
un
método
que
sale
hace
unos
pocos
meses
aquí
os
dejo
el
link
al
al
paper
que
consiste
principalmente
en
introducir
un
poquito
de
ruido
a
la
matriz
de
embeddings
y
esto
pues
parece
que
mejora
las
métricas
que
obtenemos
luego
en
diferentes
benchmarks
que
hay
de
instruction
tuning
no
entonces
el
método
consiste
principalmente
en
los
siguientes
en
primer
lugar
creamos
un
vector
de
ruido
uniforme
que
llamamos
epsilon
con
valores
que
van
de
menos
uno
a
uno
este
vector
de
ruido
lo
vamos
a
escalar
por
un
parámetro
esto
es
un
hiperparámetro
del
método
alfa
dividido
entre
la
raíz
cuadrada
de
la
longitud
de
la
secuencia
por
la
dimensión
del
modelo
vale
entonces
con
este
parámetro
de
alfa
los
autores
prueban
con
los
valores
de
5
de
10
y
de
15
vale
con
esos
tres
valores
pues
más
o
menos
experimentan
que
se
obtienen
resultados
razonables
no
hay
un
valor
concreto
de
todos
ellos
que
digamos
este
es
mejor
pues
como
todo
depende
un
poco
del
caso
de
uso
vale
y
ahí
pues
yo
sinsto
a
experimentar
y
a
probar
diferentes
valores
con
los
que
con
los
que
bueno
pues
poder
experimentar
diferentes
rendimientos
del
método
esto
de
método
aumenta
considerablemente
el
tamaño
de
las
secuencias
que
se
genera
no
se
se
vuelve
mucho
más
verboso
mucho
más
hablador
mucho
más
parlanchín
el
modelo
vale
esto
lo
tenemos
que
tener
en
en
cuenta
también
y
estos
además
pues
los
autores
analizan
que
tiene
algo
que
ver
con
el
rendimiento
percibido
ya
sabéis
que
evaluar
modelos
de
instrucciones
es
muy
difícil
en
este
caso
lo
están
evaluando
con
el
alpaca
eval
y
esto
utiliza
modelos
de
lenguaje
grandes
como
gpt4
por
detrás
para
llevar
a
cabo
la
evaluación
de
acuerdo
entonces
qué
quiero
deciros
con
esto
lo
que
quiero
deciros
es
que
al
final
para
los
modelos
de
lenguaje
grandes
lo
que
parece
que
está
claro
es
que
las
secuencias
más
largas
las
respuestas
más
largas
esas
instrucciones
más
detalladas
resulta
por
los
modelos
pues
se
perciben
como
mejores
instrucciones
o
mejores
respuestas
digamos
a
las
instrucciones
del
usuario
y
este
método
pues
lo
que
se
observa
es
que
mejora
el
rendimiento
en
general
como
podemos
ver
en
este
gráfico
de
aquí
abajo
vale
veis
que
produce
una
mejora
pues
en
algún
caso
de
15
puntos
en
otro
caso
de
8
de
9
de
7
incluso
de
34
puntos
en
el
caso
del
data
set
alpaca
aunque
en
el
truzo
el
qe
o
sea
para
lo
que
es
cuestión
answer
infactual
no
parece
que
se
observen
mejoras
notorias
no
y
los
autores
bueno
pues
no
terminan
de
tener
del
todo
claro
lo
podéis
ver
en
su
paper
a
qué
se
debe
del
todo
está
mejora
ellos
sueltan
un
poco
la
hipótesis
y
tiene
ciertos
sentidos
y
lo
pensamos
de
que
al
meterle
un
poquito
de
ruido
a
los
envidings
del
modelo
hacemos
que
este
sea
un
poco
más
robusto
porque
no
hacemos
hacemos
que
larepresentación
que
tiene
de
las
instrucciones
que
recibe
del
usuario
no
sean
perfectas
y
aún
así
tiene
que
producir
una
respuesta
perfecta
frente
a
instrucciones
que
están
ruidosas
no
y
eso
puede
hacer
que
sea
un
poco
más
robusto
que
y
que
fuera
de
distribución
pues
generalice
un
poquito
mejor
esta
es
un
poco
la
hipótesis
que
plantean
los
autores
y
en
la
práctica
pues
funciona
bastante
bien
de
hecho
pues
un
mítico
como
leuist
un
tal
ponía
iba
a
decir
hace
poco
porque
este
mes
se
me
ha
pasado
muy
rápido
yo
todavía
lo
tenía
en
la
en
la
cabeza
cuando
estaba
preparando
la
charla
me
acordaba
y
decía
bueno
sí
hace
unos
días
bueno
hace
ya
un
mes
leuist
un
tal
compartía
este
post
en
linkedin
en
el
que
decía
bueno
aquí
tenéis
una
receta
muy
muy
simple
pero
que
funciona
no
que
es
una
mezcla
de
neftune
y
este
paper
que
dice
long
is
more
for
alignment
que
básicamente
lo
que
hace
es
que
te
quedas
con
los
mil
ejemplos
más
largos
más
largos
en
respuesta
es
decir
más
largos
en
los
que
la
respuesta
de
la
gente
del
asistente
es
más
larga
vale
y
esto
tiene
sentido
además
porque
son
de
esos
ejemplos
de
los
que
más
aprendemos
cuando
el
asistente
tiene
que
dar
unas
respuestas
más
detalladas
porque
tiene
que
hacerlo
más
paso
a
paso
y
por
lo
tanto
se
ve
mejor
el
proceso
de
razonamiento
que
tiene
que
seguir
y
eso
está
muy
relacionado
con
lo
que
se
observa
en
otros
papers
como
el
orca
en
los
que
se
ve
que
ese
tipo
de
razonamiento
paso
a
paso
ese
chano
thought
pues
hace
que
los
modelos
desarrollen
mayores
capacidades
no
entonces
simplemente
cogiéndote
los
mil
ejemplos
más
largos
del
data
set
por
ejemplo
en
este
caso
era
en
el
open
hermes
data
set
en
este
caso
era
un
cero
como
uno
por
ciento
nada
más
del
data
set
y
luego
lo
que
hacía
era
aplicar
un
neftune
con
alfa
de
de
valentos
aquí
tenéis
este
truquillo
que
parece
que
funciona
bastante
bien
y
vamos
a
ver
ahora
cómo
implementar
todo
esto
con
la
librería
auto
transformers
que
nos
simplifica
un
poquito
todo
el
trabajo
con
este
tipo
de
modelos
vale
sobre
esto
pues
vamos
a
ir
un
poquito
rápido
porque
ya
hemos
introducido
y
ya
sabéis
cuáles
son
todos
los
pasos
creamos
en
primer
lugar
la
plantilla
de
chat
como
hemos
hecho
antes
vale
usamos
la
misma
plantilla
vamos
a
cargar
el
data
set
y
le
vamos
a
aplicar
esta
función
de
instrucción
tu
chat
que
viene
en
autotransformers
y
que
ya
nos
permite
pues
con
diferentes
formatos
que
tengamos
de
data
sets
de
tipo
instrucciones
pasarlos
a
un
formato
conversacional
como
el
que
espera
como
el
que
esperan
estos
modelos
vale
yo
siempre
os
recomiendo
pasar
del
formato
instrucciones
a
un
formato
conversacional
aunque
nada
más
sea
de
un
de
un
turno
vale
entonces
simplemente
le
aplicamos
esta
función
de
transformación
partimos
entre
y
en
test
como
antes
y
ahora
en
autotransformers
hay
tres
objetos
principales
por
un
lado
está
el
data
set
config
o
sea
la
configuración
del
data
set
por
otro
lado
está
la
configuración
del
modelo
el
modelo
config
y
por
otro
lado
está
el
autotrainer
es
decir
el
autentrenador
la
gracia
de
autotransformers
es
que
vamos
a
poder
iterar
sin
mucho
esfuerzo
por
múltiples
data
sets
con
múltiples
modelos
vale
lo
que
recibe
el
autotrainer
es
son
una
lista
de
model
configs
y
una
lista
de
data
set
config
entonces
empezamos
definiendo
algunos
parámetros
algunos
argumentos
de
entrenamiento
fijos
por
los
que
no
me
voy
a
detener
mucho
porque
son
exactamente
los
mismos
que
hemos
utilizado
antes
solo
que
en
formato
diccionario
de
acuerdo
estos
van
a
ser
fijos
para
todos
los
data
sets
que
queramos
luego
tenemos
que
configurar
el
el
data
set
de
alpaca
y
aquí
pues
le
pasamos
el
nombre
un
alias
le
decimos
que
no
entrene
al
final
le
vamos
a
decir
que
la
tarea
es
chatbot
como
por
defecto
él
ya
se
va
a
ir
a
buscar
el
campo
messages
no
tenemos
que
indicárselo
si
no
habría
que
indicárselo
en
alguno
en
uno
de
los
parámetros
del
data
set
config
lo
tenemos
aquí
el
chat
field
vale
en
lugar
de
messages
pues
si
tenemos
el
campo
chat
pues
chat
field
igual
a
chat
vale
se
lo
indicamos
aquíle
decimos
que
tenemos
ya
el
data
set
precargado
tenemos
múltiples
formas
de
cargar
data
sets
aquí
en
autotransformers
podéis
ver
más
en
la
documentación
y
como
no
tenemos
un
conjunto
de
validación
bueno
pues
le
decimos
que
queremos
que
lo
cree
vale
pues
esto
con
el
parcial
de
street
nos
lo
va
a
crear
entonces
esto
lo
metemos
dentro
de
un
data
set
config
lo
cargamos
con
ese
diccionario
que
define
la
configuración
vamos
ahora
con
la
configuración
del
modelo
volvemos
a
definir
la
configuración
del
lora
igual
que
hemos
hecho
antes
y
esto
se
lo
vamos
a
introducir
al
model
config
vamos
a
pasar
a
cargar
ahora
el
modelo
de
gema
2b
igual
que
hemos
hecho
antes
lo
vamos
a
guardar
con
el
nombre
gema
barra
baja
2b
y
en
el
directorio
pues
en
el
directorio
gema
2b
alpaca
tenemos
aquí
un
rapper
que
nos
va
a
hacer
todos
los
pasos
necesarios
de
culora
vale
entonces
simplemente
lo
hemos
importado
antes
el
culora
rapper
model
in
it
se
lo
metemos
aquí
al
model
in
it
wrap
class
y
le
vamos
a
pasar
también
pues
la
quantization
config
que
de
nuevo
también
está
integrada
dentro
de
la
librería
autotransformers
con
lo
cual
se
puede
importar
directamente
del
submódulo
lm
templates
le
pasamos
la
configuración
de
peft
que
hemos
definido
justo
arriba
este
lora
config
y
ahora
le
vamos
a
decir
que
el
neftune
nois
alfa
va
a
ser
de
10
vale
como
siguiendo
un
poco
el
consejo
del
ego
y
estrustal
y
tenemos
un
trainer
que
ya
está
preparado
para
utilizar
esto
de
neftune
vale
entonces
le
vamos
a
pasar
este
neftune
trainer
que
va
a
utilizar
ya
esto
internándolo
con
el
trainer
de
transformers
tenemos
una
función
también
para
modificar
el
toquenizador
que
es
esta
modify
tokenizer
y
se
la
podemos
pasar
directamente
al
model
config
vale
para
que
internamente
luego
utilice
esta
función
para
modificar
el
toquenizador
le
decimos
que
el
tamaño
máximo
de
secuencia
será
de
4096
de
nuevo
le
decimos
que
añada
un
pattoquen
a
los
especial
tokens
y
que
añada
un
chat
template
lo
definimos
entonces
ahora
vamos
a
lanzar
el
autotrainer
le
pasamos
como
veis
una
lista
de
model
config
una
lista
de
data
set
config
un
sitio
donde
guardar
las
métricas
en
este
caso
pues
métrix
alpaca
en
este
caso
no
vamos
a
hacer
búsqueda
hiperparámetros
con
lo
cual
le
pasamos
que
el
modo
de
búsqueda
hiperparámetros
será
fixed
aquí
con
este
tipo
de
modelos
lo
normal
es
no
buscar
mucho
hiperparámetros
porque
suelen
ser
entrenamientos
bastante
pesados
no
suele
llevar
bastante
tiempo
a
entrenar
con
lo
cual
aquí
pues
lo
normal
es
que
lo
utilicemos
en
el
modo
en
el
método
fijo
y
que
utilicemos
este
autotrainer
para
entrenar
distintos
modelos
vale
para
probar
por
ejemplo
pues
con
un
modelo
mistral
con
un
modelo
llama
de
7b
y
con
el
gema
de
7b
por
ejemplo
y
simplemente
metiéndome
aquí
las
tres
configuraciones
pues
ya
él
va
a
generar
el
bucle
y
mientras
nosotros
pues
nos
podemos
dedicar
a
leer
papers
o
a
cualquier
otra
cosa
que
nos
guste
le
decimos
que
utilice
el
token
de
autenticación
vale
ya
que
de
otra
manera
gema
pues
no
va
a
funcionar
esperad
que
aquí
claro
que
no
ejecuta
el
hora
con
filfetal
y
una
vez
tenemos
cargado
el
autotrainer
ya
podemos
llamarlo
y
nos
devolverá
los
resultados
vale
entonces
esto
ya
pues
ahora
se
pondrá
a
funcionar
y
ahora
bueno
si
estáis
oyéndolo
de
repente
parece
que
estoy
en
una
nave
espacial
porque
la
gpu
ahora
pues
está
empezando
a
funcionar
no
sé
si
ha
llegado
a
la
gpu
pero
por
lo
menos
el
data
set
se
está
se
está
tocanizando
porque
este
de
aquí
abajo
suena
bastante
pues
bueno
volvamos
un
segundo
a
la
presentación
que
ya
en
nada
empezamos
los
turnos
de
preguntas
que
creo
que
es
la
parte
más
más
interesante
de
esta
sesión
de
hoy
pues
bueno
cómo
conseguir
estos
regalos
que
mencionaba
que
hay
uno
que
es
para
todos
otro
que
será
a
sorteo
vale
en
primer
lugar
seguid
a
lenguagenatural.ai
en
el
link
en
internet
aquí
el
link
vale
lenguagenatural.ai
después
de
linkedin.com/company
comparte
por
favor
nuestros
posts
sobre
autotransformers
y
nuestra
academia
recién
creada
con
tu
redtenéis
los
posts
dentro
de
la
página
de
lenguagenatural.ai
dale
una
estrellita
al
repo
de
autotransformers
en
kit
hab
dadle
un
poquito
de
un
poquito
de
amor
y
escríbeme
en
mi
link
linkedin
personal
que
es
alejandro
guionvaca
guion
serrano
para
canjear
este
este
premio
y
obtener
ese
60
por
ciento
de
descuento
en
el
en
el
curso
experto
en
procesamiento
del
lenguaje
natural
y
hasta
aquí
la
parte
de
charleta
mía
ahora
empieza
la
que
creo
que
es
la
parte
más
más
interesante
en
la
que
podéis
hacerme
preguntas
y
esto
se
vuelve
un
poquito
más
más
dinámico
así
que
muchas
gracias
a
todos
por
vuestra
atención
y
por
vuestro
tiempo
y
dejo
que
maria
me
vaya
pasando
aquí
la
patata
caliente
perfecto
muchas
gracias
alejandro
es
súper
interesante
como
siempre
y
que
bien
que
al
final
le
hayamos
podido
compartir
el
colegio
o
sea
que
bueno
a
ver
si
se
va
animando
la
gente
podéis
preguntarle
cualquier
cosa
dale
ahí
pero
bueno
me
las
vas
pasando
sí
sí
sí
ahora
igual
hay
alguna
ya
por
aquí
bueno
esto
creo
que
ya
lo
respondiste
te
preguntaban
cuál
es
el
nombre
del
lenguaje
para
interfaz
del
chat
para
la
interfaz
del
chat
a
bueno
yo
creo
que
es
la
string
no
como
el
chat
y
ya
y
ya
y
yo
creo
que
era
eso
sí
es
y
ya
vale
sé
que
es
feo
el
y
ya
pero
le
cogeréis
cariño
enseguida
porque
luego
ya
vais
a
ver
que
a
la
hora
de
poner
los
modelos
en
producción
funcionan
mucho
mejor
cuando
se
han
entrenado
con
una
plantilla
en
concreto
es
mucho
más
fácil
luego
aplicar
esa
plantilla
directamente
a
los
mensajes
que
vengan
en
producción
y
ya
directamente
pues
el
modelo
ve
el
mismo
tipo
de
mundo
al
que
le
hemos
acostumbrado
durante
el
ajuste
fino
entonces
ya
veréis
que
le
cogeréis
cariño
perfecto
vale
alias
no
se
pregunta
si
esta
plantilla
de
hecho
depende
del
modelo
al
que
se
va
a
hacer
finings
es
que
si
no
se
puede
mirar
la
estructura
que
tiene
que
tener
la
plantilla
si
depende
del
esperar
que
voy
a
parar
el
entrenamiento
que
creo
que
esto
está
sí
está
apetando
verdad
si
se
ha
petado
tu
tu
vídeo
si
sí
sí
está
apetando
todo
no
para
el
entrenamiento
a
tiempo
a
ver
si
me
da
tiempo
a
hacer
el
país
antes
de
que
termine
de
explotar
todo
en
medio
segundo
ahí
Dios
si
a
ver
vale
ahora
va
ahora
sí
sí
vale
bueno
es
lo
que
tiene
los
talleres
sobre
entrenamiento
de
modelos
de
lenguaje
que
de
repente
ponemos
a
la
vez
a
google
chrome
y
a
gemma
aquí
a
competir
por
los
recursos
del
ordenador
y
nada
se
ponen
celosos
el
uno
del
otro
y
tiran
cada
uno
para
un
lado
con
respecto
a
esto
de
la
plantilla
el
chat
que
depende
que
si
depende
del
modelo
que
se
va
a
hacer
20
mira
hay
plantillas
ya
definidas
en
la
mayoría
de
los
modelos
de
chat
que
están
disponibles
en
abierto
la
de
gemma
por
ejemplo
no
me
gusta
mucho
porque
no
tiene
una
parte
de
sistema
y
tampoco
os
vais
a
encontrar
con
general
no
tienen
una
parte
para
el
input
vale
o
sea
no
tienen
un
campo
definido
para
el
input
tanto
la
de
llama
como
la
de
gemma
como
la
de
en
general
no
tienen
un
campo
definido
para
el
input
es
muy
importante
que
si
tengan
un
campo
siempre
para
el
sistema
del
input
es
un
poco
opcional
y
dependerá
de
vuestro
caso
de
uso
de
si
estáis
utilizando
algún
contexto
adicional
o
no
por
ejemplo
cuando
estáis
entrenando
para
tareas
de
rag
sí
que
sería
muy
interesante
pues
tener
ese
input
añadido
no
esto
se
puede
mirar
directamente
en
la
configuración
del
toquenizador
en
hagin
face
o
sea
si
os
metéis
aquí
estoy
compartiendo
aquella
pantalla
y
esperad
que
esto
está
con
mis
toques
también
medio
segundo
que
busco
el
modelo
de
gb
más
7b
tranquilo
estás
compartiendo
o
sea
no
se
ve
ahora
mismo
ahora
se
ve
ahora
sí
o
sea
los
lo
pongo
yo
me
refiero
o
sea
que
tú
cuando
me
quieres
cuando
quieras
compartir
me
avisas
y
la
vais
y
os
fijáis
aquí
tenéis
el
chat
en
play
aquí
se
ve
horrible
porque
esto
es
una
string
así
de
mala
manera
pero
esto
si
le
hacéis
un
print
vale
a
todo
esto
pues
lo
podéis
ver
un
poquito
mejor
pues
lo
tenéis
directamente
en
el
chat
en
play
aquí
estoy
por
ejemplo
viendo
el
de
jema
vale
pero
si
me
meto
en
el
de
llama
instru
como
se
llama
aquí
porejemplo
no
cómo
se
llama
el
de
aquí
el
chat
que
cada
uno
pone
pone
los
números
diferentes
aquí
también
si
os
fijáis
sí
que
viene
uno
que
tiene
el
sistema
vale
y
aquí
ya
pues
viene
el
resto
de
la
string
entonces
aquí
tenéis
esa
plantilla
predefinida
si
vais
a
partir
de
un
modelo
que
ya
está
entrenado
para
instrucciones
sí
que
pues
puede
ser
conveniente
utilizar
la
misma
plantilla
que
ha
utilizado
ese
modelo
originalmente
vale
pero
vamos
esto
es
completamente
opcional
y
si
tenéis
un
suficiente
volumen
de
datos
no
será
necesario
sino
que
podréis
simplemente
pues
partir
de
vuestra
propia
plantilla
pero
si
vais
a
utilizar
el
de
a
machate
o
jema
instrucción
tuning
pues
conviene
utilizar
el
suyo
y
aquí
podéis
podéis
mirarlo
vale
más
preguntillas
maria
no
sé
si
se
ha
caído
yo
voy
a
ir
voy
a
ir
mientras
respondiendo
más
cosas
parece
que
hay
otra
librería
llamada
igual
te
da
error
pues
no
me
habría
dejado
subir
la
librería
subir
a
otra
llamada
igual
ya
estás
de
vuelta
no
me
cuenta
que
no
tenía
batería
nada
no
te
preocupes
estaba
estaba
respondiendo
a
la
siguiente
con
las
y
quieres
es
esto
de
parece
que
hay
otra
librería
llamada
igual
y
estaba
comentando
que
justo
realmente
originalmente
la
iba
a
llamar
auto
lm
es
y
y
finalmente
no
pude
llamar
la
auto
lm
es
porque
había
una
se
llamaba
muy
parecido
auto
lm
es
en
pip
en
papay
y
por
eso
no
me
dejó
o
sea
que
no
permite
papay
que
haya
dos
librerías
llamadas
llamadas
igual
entonces
no
sé
mira
a
ver
si
las
he
escrito
si
las
he
escrito
bien
si
haces
pip
install
auto
transformers
sólo
te
debería
instalar
esta
sí
para
ti
cual
que
el
lm
que
el
lm
se
deja
utilizar
en
el
personal
trabajé
mucho
con
llama
bueno
sin
duda
llama
es
una
es
una
gran
alternativa
y
además
atentos
porque
viene
llama
3
dentro
de
muy
poquito
así
que
atentos
todos
a
ese
link
de
ya
en
lecún
que
seguro
que
lo
anunció
dentro
de
muy
poquito
llama
por
supuesto
es
una
gran
alternativa
sobre
todo
en
lo
que
se
refiere
al
multidioma
y
bueno
pues
a
nosotros
para
el
lenguaje
castellano
por
supuesto
funcionan
muy
bien
pero
yo
en
mi
experiencia
por
ejemplo
me
gusta
mucho
también
mi
estral
sobre
todo
porque
tiene
una
atención
con
con
ventana
de
4096
tokens
con
sliding
window
y
eso
permite
que
puedas
utilizar
un
tamaño
de
secuencia
bastante
mayor
con
un
coste
lineal
en
lugar
de
cuadrático
porque
lo
que
es
el
campo
receptivo
no
deja
de
estar
en
4096
entonces
dependiendo
un
poco
del
caso
de
uso
por
ahí
tenéis
varios
benchmarks
también
depende
por
ejemplo
si
vas
a
hacer
algo
relacionado
con
las
matemáticas
o
con
el
código
en
cuyo
caso
pues
normalmente
los
modelos
de
llama
sobre
todo
de
13b
en
adelante
pues
van
a
funcionar
bastante
mejor
si
queremos
que
nuestro
modelo
de
lenguaje
haga
cuentas
por
ejemplo
que
haga
análisis
sobre
un
report
financiero
así
lo
más
probable
es
que
llama
funciona
un
poquito
mejor
pero
a
mí
mi
estral
también
me
gusta
mucho
los
modelos
de
gemas
tienen
la
ventaja
de
que
hay
uno
de
dos
billones
y
que
por
lo
tanto
es
mucho
más
usable
es
más
fácil
de
entrenar
con
menos
recursos
y
demás
pero
mi
experiencia
es
que
me
parece
que
han
incluido
pocos
datos
multilinguaje
me
parece
que
está
muy
centrado
en
el
lenguaje
inglés
y
en
español
pues
no
funciona
tan
bien
probablemente
serían
los
tres
así
más
relevantes
sin
olvidarnos
por
supuesto
de
los
modelos
de
este
y
vol
lm
que
también
funcionan
bastante
bien
luego
están
los
modelos
falcon
que
funcionan
un
poquito
peor
por
mi
experiencia
personal
entonces
yo
por
enfocarlo
me
quedaría
principalmente
con
los
tres
primeros
que
hemos
dicho
mistral
llama
y
gelma
y
de
en
y
hace
poco
también
está
está
cogiendo
popularidad
los
métodos
de
rwk
v
es
un
nombre
horrible
lo
sé
pero
esta
arquitectura
está
cogiendo
también
bastante
popularidad
y
están
trabajando
también
en
el
multidioma
recientemente
y
además
el
coste
de
inferencia
es
bastante
más
bajo
así
que
por
el
bien
del
medio
ambiente
y
de
vuestras
carteras
también
pues
mantenez
un
ojo
en
ellos
genial
en
alias
nos
pregunta
bueno
primero
no
lo
voy
a
por
la
charla
y
después
nos
pregunta
aver
si
recomiendas
el
uso
del
lanz
mi
fuego
similar
para
monitorizar
los
modelos
en
uso
bueno
siempre
es
un
placer
ver
a
alex
focus
por
aquí
gracias
por
gracias
por
asistir
yo
fíjate
creo
que
ahora
mismo
tenemos
todos
un
pequeño
vacío
una
pequeña
laguna
en
el
tema
de
la
evaluación
de
los
modelos
yo
no
me
caso
con
ninguna
librería
en
particular
a
mí
la
métrica
que
más
me
gusta
probablemente
sea
el
semántica
en
ser
similar
y
sobre
todo
para
tareas
de
rwk
ahí
me
parece
que
es
donde
nos
resulta
más
fácil
evaluar
sin
tenernos
que
ir
a
modelos
a
modelos
muy
grandes
luego
pues
hay
diferentes
alternativas
como
como
está
que
comentas
de
langsmeef
para
el
tema
de
la
monitorización
y
esa
evaluación
a
mí
ninguna
de
ellas
me
termina
de
convencer
demasiado
sobre
todo
porque
al
final
casi
siempre
solemos
utilizar
en
el
background
solemos
utilizar
modelos
de
lenguaje
demasiado
grandes
para
para
esa
evaluación
y
a
mí
eso
es
algo
que
claro
sobre
todo
también
por
la
cartera
pues
pues
no
me
termina
de
convencer
en
el
open
source
hay
una
alternativa
que
es
la
métrica
prometeus
lo
que
pasa
es
que
solamente
está
en
inglés
en
la
que
bueno
pues
han
entrenado
modelos
llama
para
evaluar
que
aprenden
a
evaluar
entonces
lo
que
hacen
es
aprender
a
imitar
esa
evaluación
que
solemos
hacer
con
que
solemos
hacer
con
gpt4
por
detrás
pero
si
hay
varias
alternativas
yo
no
me
termino
de
casar
con
ninguna
la
verdad
yo
me
yo
opto
por
ese
semanticancer
similarity
que
pese
a
que
es
un
poco
más
antiguo
y
demás
a
mí
me
parece
que
cumple
un
buen
equilibrio
entre
una
gran
evaluación
y
a
la
vez
es
barato
porque
es
medio
gratis
y
como
tira
de
sentence
transformes
por
debajo
pues
podemos
utilizar
modelos
modelos
multilingües
genial
gracias
ahora
y
dos
preguntas
que
son
bastante
similares
entonces
te
las
leo
las
combinamos
un
poco
y
y
les
vale
cuántos
datos
consideras
buenos
para
un
entrenamiento
decente
bueno
decentes
como
todo
muy
subjetivo
en
caso
de
que
quieras
generar
tu
propia
data
sete
bueno
que
esto
es
más
bien
pues
porque
están
generando
sus
propios
data
sets
y
no
saben
cuánto
necesitan
vale
como
la
dopamina
siempre
más
la
otra
que
es
similar
bueno
es
similar
pero
tampoco
tanto
si
un
documento
es
muy
grande
salen
cientos
de
páginas
en
un
pdf
cuántos
pares
de
instrucciones
necesitan
para
que
abar
que
el
documento
si
quieres
después
separar
las
responder
separadamente
vamos
a
responderlas
por
separado
yo
creo
bueno
aparte
de
la
broma
no
necesariamente
necesitamos
siempre
más
no
y
de
hecho
hay
trabajos
como
Lima
o
como
este
trabajo
que
hemos
mostrado
antes
de
long
is
more
for
alignment
que
muestran
que
lo
que
necesitamos
muchas
veces
no
es
más
datos
sino
que
los
datos
sean
más
completos
entonces
depende
mucho
también
de
cuánto
puede
aprovechar
el
modelo
cada
uno
de
esos
datos
si
por
ejemplo
las
respuestas
que
tiene
el
asistente
en
esos
datos
son
muy
cortas
pues
vamos
a
necesitar
un
volumen
bastante
mayor
pero
si
las
respuestas
son
detalladas
muy
paso
a
paso
pueden
mostrar
el
proceso
completo
de
razonamiento
que
tendría
que
seguir
el
modelo
para
llegar
a
la
conclusión
del
mensaje
y
demás
en
ese
caso
podemos
conformarnos
probablemente
con
un
número
entre
500
y
1000
elementos
si
estos
parece
mucho
nos
preocupéis
o
sea
siempre
pues
cuanto
más
cerca
podamos
estar
de
eso
mejor
no
pero
con
técnicas
como
neftune
quizás
pues
podemos
entrenar
durante
más
épocas
y
le
metemos
un
poquito
de
ruido
y
podemos
romper
esa
barrera
que
suele
haber
con
este
tipo
de
entrenamiento
de
culora
en
la
que
vemos
que
normalmente
entrenar
más
de
una
época
no
es
útil
pero
entrenar
más
de
una
época
con
neftune
pues
sí
que
produce
buenos
resultados
esto
lo
mostraba
también
el
lego
instruxtal
en
el
post
que
he
puesto
que
he
puesto
antes
no
entonces
mi
consejo
es
que
primero
cuidéis
la
calidad
de
cada
fila
o
sea
es
muchísimo
más
importante
que
cada
fila
sea
de
mucha
calidad
que
el
modelo
puede
aprender
trazas
completas
de
razonamiento
de
cada
uno
de
esosdatos
y
luego
ya
nos
vamos
al
volumen
pero
sobre
todo
que
que
haya
densidad
de
pensamiento
digamos
en
la
en
cada
una
de
esas
filas
ese
es
mi
consejo
particular
y
luego
una
vez
cumplimos
eso
pues
a
más
mejor
calidad
antes
que
cantidad
si
siempre
genial
entonces
ahora
la
otra
pregunta
sobre
los
datos
si
tienen
documentos
muy
grandes
sentos
de
páginas
en
un
pdf
cuántos
pares
instrucciones
se
necesitarían
para
barcar
todo
el
documento
es
que
eso
depende
mucho
del
tamaño
de
secuencia
máximo
que
permita
el
modelo
si
trabajamos
con
el
modelo
gema
por
ejemplo
pues
está
entrenado
con
tamaños
de
secuencia
de
8000
de
8192
que
es
bastante
grande
si
trabajamos
con
llama
pues
ya
nos
tenemos
que
bajar
a
4192
o
con
los
modelos
stable
el
em
pero
por
ejemplo
con
mistral
no
hay
ningún
problema
por
entrenar
con
16384
o
incluso
32000
tokens
no
dependiendo
también
pues
de
los
recursos
que
que
tengamos
entonces
depende
mucho
del
tamaño
de
secuencia
que
permita
nuestro
nuestro
modelo
también
depende
del
caso
de
uso
final
que
vayamos
a
usar
si
por
ejemplo
el
caso
de
uso
final
es
un
sistema
de
ra
de
retriba
la
argumenta
de
generación
tenemos
que
tener
en
cuenta
que
normalmente
los
modelos
de
la
parte
de
recuperación
de
información
no
tienen
un
tamaño
de
secuencia
muy
grande
y
esto
además
tiene
un
sentido
no
me
voy
a
poner
aquí
a
filosofar
pero
en
el
paper
de
m3
que
son
unos
modelos
de
embedding
que
se
sugiron
hace
hace
poco
pues
hacen
un
pequeño
análisis
y
tal
y
hace
poco
el
no
me
acuerdan
a
mí
mismo
de
su
nombre
pero
el
líder
de
sentence
transformers
pues
publicaba
una
reflexión
al
respecto
en
el
link
edin
no
de
que
los
modelos
por
la
tarea
que
resuelven
los
modelos
de
recuperación
de
información
no
deben
tener
un
tamaño
de
secuencia
mucho
más
grande
que
512
entonces
lo
normal
es
que
recuperáramos
pues
de
entre
4
y
10
pasajes
vale
con
lo
cual
lo
normal
es
que
podamos
tener
luego
como
cuatro
turnos
como
mucho
de
conversación
con
respecto
a
esos
pasajes
recuperados
como
para
que
nos
entre
en
un
máximo
de
8192
tokens
pensando
sobre
todo
en
mistral
y
en
jema
más
o
menos
por
ahí
podemos
andar
no
sé
si
eso
responde
del
todo
a
la
pregunta
yo
creo
que
si
tienen
una
follow-up
la
pueden
escribir
y
si
por
supuesto
si
ahora
tenemos
una
pregunta
sobre
autotrain
porque
este
año
en
el
jacatón
también
hay
facebook
a
trocina
gpu
también
autotraik
entonces
pues
también
a
los
equipos
a
utilizarlo
y
creo
que
lo
que
te
piden
más
que
nada
son
recomendaciones
para
los
valores
más
habituales
bat
size
model
maxlain
y
debas
entrenando
es
que
depende
si
de
con
qué
formato
entrenemos
y
con
lora
culora
o
haciendo
full
fine
tuning
entendiendo
que
es
full
fine
tuning
mi
recomiendo
digo
perdona
entendiendo
que
es
lora
o
culora
que
es
como
normalmente
se
suelen
entrenar
estos
modelos
de
instrucciones
yo
diría
que
el
bat
size
total
es
decir
teniendo
en
cuenta
el
bat
size
real
más
el
credienta
cumulación
steps
que
estemos
como
en
los
16
más
o
menos
entre
8
y
16
probablemente
funcione
bastante
bien
con
el
respecto
al
tamaño
máximo
de
secuencia
del
modelo
pues
eso
depende
también
de
los
datos
ya
habéis
visto
que
en
el
caso
de
alpaca
por
ejemplo
pues
elevar
mucho
el
tamaño
de
secuencia
hasta
los
4192
pues
tampoco
me
servía
de
mucho
no
porque
las
instrucciones
eran
en
general
bastante
breves
con
lo
cual
eso
depende
mucho
de
los
de
los
datos
si
tenéis
datos
grandes
digamos
o
sea
si
tenéis
conversaciones
suficientemente
grandes
yo
ese
tamaño
máximo
de
secuencia
intentaría
tenerlo
en
4192
y
si
dan
los
recursos
en
8000
perdona
en
4196
en
8192
entre
entre
esos
valores
normalmente
estaremos
bien
y
con
respecto
al
bat
al
learning
rate
que
es
el
otro
parámetro
que
solemos
querer
tocar
dependiendo
del
tamaño
del
modelo
entre
1
de
-4
y
3
de
-4
encontraremos
buenos
resultados
genial
creo
que
también
tenían
dudas
sobre
las
épocas
porque
la
ley
ya
que
estamos
con
autotrain
de
que
depende
el
número
de
épocas
o
cómo
podemos
mirar
comodefinir
también
porque
también
es
un
valor
que
también
viene
por
defecto
y
yo
aquí
los
fíjate
que
normalmente
entrenando
modelos
de
instrucciones
o
conversacionales
hay
como
una
rule
of
thumb
de
entrena
por
una
época
y
no
entrenes
más
y
la
verdad
es
que
normalmente
funciona
bien
esa
esa
rule
of
thumb
cuando
los
modelos
son
un
poco
más
pequeños
es
decir
yo
en
cada
vez
esa
rule
of
thumb
la
he
sacado
con
mi
experiencia
de
modelos
entre
7
y
70
b
sobre
todo
entonces
claro
esto
a
lo
mejor
con
un
modelo
de
2b
pues
no
es
tan
extrapolable
y
en
el
caso
del
ego
y
esto
instal
ya
ha
enseñado
antes
que
él
mencionaba
que
hacer
15
épocas
con
neftune
alfa
a
10
y
cogiendo
solo
las
instrucciones
más
largas
eso
le
funcionaba
bastante
bien
entonces
yo
creo
que
depende
también
de
cuánto
se
pueda
aprender
de
cada
dato
si
hay
mucho
que
extraer
de
cada
dato
pues
verlo
más
de
una
vez
nos
puede
salir
rentable
si
de
cada
dato
no
hay
tanto
más
que
extraer
con
verlo
una
sola
vez
será
suficiente
normalmente
como
rule
of
thumb
ya
os
digo
yo
mi
experiencia
con
una
época
es
suficiente
y
más
normalmente
suele
derivar
en
una
degradación
del
rendimiento
del
modelo
fuera
de
distribución
con
lo
cual
no
lo
recomiendo
demasiado
perfecto
gracias
pregunta
cortita
me
he
perdido
algunas
partes
le
has
aplicado
algún
ras
a
tu
código
o
algo
por
el
estilo
no
hemos
hecho
no
hemos
hecho
rach
no
hemos
hecho
rach
eso
lo
dejamos
para
una
charla
futura
porque
ha
quedado
pendiente
originalmente
se
lo
había
propuesto
a
maría
y
me
gustaría
enseñar
un
sistema
de
rach
en
producción
pero
lo
dejaremos
para
una
futura
charla
así
que
bueno
os
dejo
ahí
el
cliffhanger
así
que
estas
pendientes
que
somos
en
el
p
vienen
cosas
todavía
después
del
jacatón
si
no
hemos
quemado
el
todo
a
maría
que
la
pobreza
está
pegando
una
paliza
ahora
más
cosas
ahora
más
cosas
otra
pregunta
qué
modelo
recó
bueno
que
lm
recomendarías
para
entrenamientos
chat
con
data
sets
de
20
mil
filas
es
un
poco
similar
pero
ya
más
hablando
de
creo
más
bien
del
tamaño
fíjate
fidos
el
problema
es
que
funciona
muy
bien
en
los
benchmarks
públicos
porque
se
ha
entrenado
con
libros
de
texto
y
es
que
los
más
públicos
se
evaluan
conocimientos
sobre
cosas
que
tienen
que
ver
sobre
libros
de
texto
pero
esto
es
el
juego
este
vicioso
en
el
que
hemos
entrado
de
que
hay
una
comparación
pública
y
unos
benchmark
públicos
y
entonces
se
convierte
en
un
juego
de
ver
cómo
de
bien
lo
puedo
hacer
ahí
porque
eso
me
da
fama
pero
yo
en
la
práctica
no
he
visto
que
ese
modelo
funcione
demasiado
bien
luego
cuando
lo
sacamos
de
esa
distribución
de
las
tareas
que
pueden
tener
que
ver
con
los
libros
de
texto
y
menos
aún
cuando
hablamos
de
datos
que
no
estén
en
inglés
desde
luego
de
esos
tres
modelos
que
mencionas
mistral
7b
microsoft
si
o
tiny
llama
para
español
desde
luego
sin
lugar
a
dudas
me
quedo
con
mistral
sin
sin
ninguna
duda
en
general
igual
se
nota
mistral
es
mi
favorito
probablemente
de
todos
los
modelos
que
hay
ahora
mismo
en
el
panorama
es
es
mi
favorito
yo
es
con
el
que
he
tenido
mejores
experiencias
y
en
general
funciona
muy
bien
la
verdad
y
si
voy
a
usar
un
modelo
tipo
llama
uso
llama
no
no
uso
el
tama
porque
se
ha
entrenado
con
muchísimos
trillones
de
tokens
son
la
gracia
de
los
modelos
llama
es
que
entrenan
mucho
más
allá
de
lo
que
el
paper
de
chinchilla
diría
que
tiene
que
ser
el
presupuesto
para
ese
tamaño
de
modelo
y
eso
les
permite
captar
muchísimo
conocimiento
o
sea
llevan
los
aprendizajes
del
paper
de
chinchilla
a
otro
nivel
entonces
o
mistral
o
llama
o
gema
si
me
tengo
que
quedar
con
tres
me
quedo
con
esos
tres
perfecto
ahora
una
pregunta
sobre
poesía
también
te
gusta
mucho
expresarte
bien
no
sé
cómo
decir
esto
bueno
me
gusta
la
poesía
no
sé
si
lo
he
dicho
alguna
vez
en
público
pero
yo
escribía
poesía
hace
mucho
tiempo
que
no
me
rompe
en
el
corazón
entonces
por
eso
lo
tengo
un
poco
abandonado
pero
me
gusta
mucho
la
poesía
y
además
hace
no
mucho
leí
un
post
sobre
sobre
este
tema
de
por
qué
los
modelos
de
lenguaje
no
son
buenosescribiendo
pues
ya
sobre
todo
yo
he
visto
que
no
son
buenos
les
dices
yo
quiero
un
soneto
y
el
y
quiero
un
soneto
quiero
versos
alejandrino
está
nada
no
te
hacen
ni
caso
porque
no
te
hacen
ni
caso
por
el
toquenizador
el
diablo
está
en
el
toquenizador
y
eso
es
una
cosa
difícil
de
superar
el
toquenizador
es
el
que
es
y
para
el
modelo
es
muy
difícil
tener
esa
conciencia
de
sí
la
vas
dentro
de
los
tokens
que
está
generando
no
entonces
en
general
decir
que
es
una
tarea
difícil
prepararlos
para
pasarlo
mal
pero
aprenderéis
mucho
precisamente
porque
es
difícil
no
cargaros
de
resiliencia
y
luego
aquí
lo
que
sí
que
os
recomendaría
en
el
caso
concreto
de
la
generación
de
poesía
es
utilizar
parámetros
de
generación
un
poquito
distintos
a
los
que
se
suelen
utilizar
la
mayoría
de
las
veces
por
supuesto
usaría
sampling
pero
usaría
sampling
con
una
temperatura
más
alta
normalmente
cuando
vamos
a
cerrar
pregunta
respuesta
preguntas
o
sistemas
de
chatbot
o
así
queremos
ir
un
poco
más
sobre
seguro
y
afilamos
mucho
la
distribución
del
siguiente
toquen
y
utilizamos
una
temperatura
de
0.3
o
0.2
incluso
en
algunos
casos
de
cero
vale
pero
normalmente
cuando
queremos
escribir
poesía
queremos
que
el
modelo
sea
un
poquito
más
creativo
para
que
sea
más
creativo
les
subimos
un
poco
esa
temperatura
y
luego
otra
cosa
que
funciona
bastante
bien
a
la
hora
de
que
el
modelo
sea
creativo
y
de
que
escriba
una
poesía
que
no
se
quede
digamos
anclada
en
lo
mismo
es
utilizar
contrast
chips
con
contrast
chips
es
una
técnica
de
generación
de
texto
que
viene
a
penalizar
los
tokens
que
tienen
una
similitud
semántica
demasiado
grande
con
el
contexto
ya
generado
y
esa
penalización
creo
que
en
el
paper
utilizaban
no
me
acuerdo
si
era
1
con
2
o
0.6
podéis
mirarlo
y
está
integrado
completamente
en
hagan
face
esto
del
contrast
chips
entonces
esto
tiene
más
que
ver
con
lo
que
es
el
después
del
fine
tuning
o
sea
una
vez
ya
el
modelo
ha
sido
ha
sido
entrenado
una
a
la
hora
de
a
la
hora
de
ponerlo
en
producción
con
respecto
al
tatasé
la
verdad
es
que
no
le
haría
un
tratamiento
muy
especial
creo
que
en
este
caso
en
concreto
el
tema
de
neftune
pues
puede
funcionar
bastante
bien
porque
lo
puede
volver
al
modelo
bastante
robusto
y
si
tenéis
alguna
instrucción
asociada
a
cada
poesía
creo
que
puede
ser
muy
bueno
para
que
el
modelo
aprenda
a
asociar
estilos
concretos
con
un
tipo
de
poesía
o
autores
concretos
o
tipos
concretos
de
poesía
no
eso
creo
que
puede
ser
muy
interesante
y
si
tenéis
ese
tipo
de
datos
o
de
metadatos
sobre
cada
poesía
podéis
enriquecer
mucho
ese
data
set
genial
yo
me
estaba
adelantando
ya
un
poco
a
la
siguiente
pregunta
porque
al
parecer
isaias
le
han
cantado
la
charla
pero
dice
que
se
pierde
un
poco
con
los
cambios
rápidos
en
las
técnicas
y
es
que
realmente
yo
diría
que
desde
este
último
año
un
poco
más
han
salido
cuatro
mil
tropejintas
diferentes
entonces
bueno
he
compartido
tu
de
hecho
tu
taller
y
los
de
manu
de
las
anteriores
ediciones
que
pues
el
año
pasado
si
quitemos
como
un
poco
más
enfoque
en
color
y
explicarlo
bien
y
que
dan
todas
estas
cuestiones
bueno
se
acabó
de
compartir
y
aparte
bueno
a
ver
si
tienes
tú
también
otras
sugerencias
para
ponerse
cómo
podría
ponerse
al
día
usar
mucho
link
yo
es
es
lo
primero
que
puedo
que
puedo
recomendar
yo
en
mi
caso
pues
es
la
red
social
que
utilizo
el
resto
de
redes
la
verdad
es
que
las
tengo
bastante
abandonadas
maría
que
se
siente
identificada
totalmente
es
es
un
consejo
ahora
ya
pues
sacándome
la
camiseta
de
lenguaje
natural
punto
hay
os
diré
que
dentro
de
poco
voy
a
empezar
con
la
newsletter
en
la
que
bueno
pues
todas
las
semanas
sacaremos
los
los
papers
más
relevantes
de
cada
semana
haremos
un
pequeño
resumen
entonces
en
lenguaje
natural
punto
hay
directamente
os
podéis
apuntar
en
esa
newsletter
de
heisel
y
me
y
cuando
empiece
pues
recibiréis
todos
los
todavía
no
he
decidido
si
son
los
domingos
o
los
lunes
tengo
que
decidir
que
día
es
mejor
para
leer
sobre
las
novedades
de
últimas
de
la
lla
pero
precisamente
creo
que
este
es
un
problemabastante
común
a
mí
también
me
pasa
o
sea
es
abrumador
la
cantidad
de
cosas
que
que
salen
yo
la
persona
con
la
que
más
hablo
por
wasps
soy
yo
mismo
porque
yo
con
cada
post
interesante
con
cada
técnica
interesante
que
va
saliendo
me
la
voy
mandando
a
mi
chat
de
wasps
y
no
me
da
tiempo
ni
siquiera
a
leerme
a
mí
mismo
entonces
es
un
poco
abrumador
con
lo
cual
tener
un
poco
pues
hay
una
newsletter
que
permita
tener
como
un
pequeño
resumen
semanal
y
tal
eso
creo
que
vendría
bastante
bien
en
castellano
creo
que
no
hay
muchas
cosas
de
esto
y
es
una
de
las
cosas
que
vamos
a
hacer
desde
desde
lenguaje
natural
punto
ahí
y
por
supuesto
miraros
todos
los
vídeos
de
somos
en
el
ep
que
hay
un
huevo
o
sea
que
tenéis
ahí
en
la
en
la
página
en
el
canal
de
youtube
también
tenéis
un
montón
de
vídeos
para
ir
poniendo
saldía
y
sobre
todo
pues
relax
y
no
sabré
un
mes
esto
es
un
mundo
maravilloso
en
el
que
ahora
lamentablemente
pues
hay
que
separar
el
grano
de
la
paja
pero
pero
llegue
mejor
eso
a
que
no
haya
movimiento
que
no
venga
otro
invierno
de
la
lla
no
lo
parece
la
verdad
no
tiene
pintado
va
seguimos
con
técnicas
de
entrenamiento
qué
herramientas
o
tecnologías
hay
disponibles
para
implementar
un
rlhf
después
de
un
finetuning
para
hacer
el
alineamiento
de
los
modelos
de
lenguaje
con
preferencias
humanas
que
es
esto
que
comentas
del
rlhf
realmente
ahora
la
técnica
que
es
más
popular
o
lo
que
más
es
lo
utilizar
es
el
daríez
referencia
optimization
porque
no
requiere
el
uso
de
un
modelo
de
recompensa
intermedio
y
los
resultados
pues
son
bastante
prometedores
también
pues
en
este
sentido
necesitamos
datos
en
castellano
para
esto
ya
he
visto
que
como
parte
de
las
iniciativas
del
jacatón
se
está
traduciendo
el
data
is
better
together
que
es
un
data
ese
precisamente
que
busca
pues
cubrir
este
tipo
de
cosas
en
autotransformers
está
integrado
ya
este
tema
del
alineamiento
lo
que
pasa
es
que
todavía
no
me
ha
dado
tiempo
a
documentarlo
porque
tengo
la
mano
un
poquito
regular
siendo
así
plenamente
honesto
vale
está
integrado
o
sea
ya
lo
podéis
utilizar
y
si
seguís
el
código
pues
es
simplemente
meterle
alignment
pasarle
un
un
dataset
que
tenga
el
prompt
el
elegido
y
el
rechazado
y
el
ya
te
hace
el
daríez
preferencia
optimización
dentro
de
poco
lo
documentaré
y
por
debajo
esto
lo
que
utiliza
es
la
librería
trl
que
dentro
de
las
librerías
de
rinforz
me
learning
from
human
feedback
es
la
que
más
recomiendo
y
luego
en
este
sentido
ha
surgido
una
técnica
nueva
a
mí
bueno
yo
vengo
del
del
mundo
de
la
economía
originalmente
aunque
igual
ya
no
lo
parece
espero
y
el
caso
es
que
bueno
en
este
mundo
de
la
economía
sobre
todo
la
economía
del
comportamiento
había
dos
tipos
que
son
canemán
y
tibersky
que
revolucionaron
el
mundo
de
la
economía
del
comportamiento
no
pues
resulta
que
han
integrado
la
teoría
de
canemán
y
tibersky
en
un
método
que
se
llama
canemán
tibersky
optimización
que
viene
a
sustituir
el
direct
preferencia
optimización
básicamente
con
recompensas
de
malo
o
bueno
o
sea
en
direct
preferencia
optimización
comparamos
el
elegido
contra
el
rechazado
intentamos
que
se
acerquen
lo
máximo
los
logics
a
los
elegidos
y
que
se
alejen
de
los
rechazados
en
en
kato
en
canemán
tibersky
optimización
simplemente
necesitamos
saber
si
la
respuesta
es
buena
o
es
mala
y
esto
es
mucho
más
realista
con
los
escenarios
que
solemos
tener
en
producción
en
los
que
por
lo
menos
yo
yo
cuando
estoy
utilizando
chat
gpt
y
a
mí
me
pone
dos
prom
dos
respuestas
no
me
molesto
en
lerme
las
dos
a
la
que
así
a
primera
vista
me
parece
mejor
la
de
hoy
y
ya
está
y
continúa
la
conversación
pero
si
es
simplemente
decirle
bien
o
mal
pues
eso
sí
que
lo
hago
y
ese
fitba
sí
que
lo
doy
no
pues
para
poder
incorporar
este
tipo
de
fitbas
que
son
más
sencillos
de
obtener
en
producción
ha
surgido
esta
técnica
que
también
pues
merece
la
pena
echarle
un
ojo
y
tenerla
en
tenerla
en
cuenta
genial
nos
vamos
cambiamos
de
tema
pero
me
encanta
esta
pregunta
crees
que
seríabeneficioso
para
todas
las
compañías
usar
lm
de
alguna
forma
y
después
que
le
dirías
a
un
ceo
para
que
vos
haces
vuestra
tecnología
son
dos
preguntas
diferentes
mira
creo
que
sería
beneficioso
para
prácticamente
cualquier
compañía
utilizar
nlp
de
alguna
forma
no
necesariamente
modelos
de
lenguaje
grandes
y
de
hecho
creo
que
se
están
matando
moscas
a
cañonazos
en
muchísimos
casos
esto
es
algo
que
además
creo
que
tú
y
yo
maría
lo
hemos
hablado
alguna
vez
o
sea
no
utilicéis
por
favor
modelo
de
lenguaje
grande
para
una
tarea
de
detección
de
entidades
vale
porque
es
que
además
están
saliendo
métodos
de
cero
shot
de
detección
de
entidades
con
modelos
encoders
que
son
mucho
más
eficientes
para
para
esto
por
ejemplo
o
para
respuesta
extractiva
preguntas
o
para
tareas
de
clasificación
para
eso
no
se
usan
en
el
lm
porque
los
lm
donde
realmente
se
desaca
provecho
es
en
la
parte
generativa
entonces
creo
que
es
beneficioso
para
casi
todas
las
compañías
implementar
tecnologías
del
lenguaje
de
manera
general
porque
casi
todas
las
compañías
trabajan
con
datos
de
texto
y
tienen
datos
de
texto
de
alguna
forma
y
por
lo
tanto
se
les
puede
sacar
provecho
mediante
este
tipo
de
tecnologías
no
los
lm
en
particular
pues
creo
que
en
el
caso
concreto
por
ejemplo
de
la
búsqueda
interna
de
documentación
a
mí
por
ejemplo
nunca
me
ha
gustado
leerme
páginas
y
páginas
de
pdf
de
documentación
interna
y
cosas
así
no
de
mi
vay
probablemente
más
de
unos
sentís
identificados
con
con
esto
pues
es
más
divertidos
y
podemos
chatar
con
con
eso
no
y
de
hecho
pues
en
muchas
empresas
esto
ya
se
está
empezando
a
usar
ahí
por
ejemplo
pues
un
caso
de
uso
que
la
inteligencia
artificial
generativa
si
creo
que
tiene
mucho
sentido
y
luego
lo
que
le
diría
un
cero
para
apostar
por
estas
tecnologías
que
dependería
mucho
de
su
sector
concreto
y
del
provecho
que
te
pueda
sacar
en
en
concreto
ese
feo
ya
os
digo
creo
que
en
general
apostar
por
tecnologías
del
lenguaje
nos
puede
hacer
comprender
mejor
a
los
empleados
comprender
mejor
al
cliente
y
incluso
facilitar
y
agilizar
muchos
de
los
procesos
que
tenemos
tanto
internos
como
externos
y
aunque
nada
más
sea
por
eso
tener
pues
integrantes
en
nuestros
equipos
que
sepan
de
esta
tecnología
creo
que
es
muy
importante
pero
necesitaría
saber
qué
tipo
de
feo
tú
dime
quién
y
le
convencimos
además
tiene
mucha
la
vida
de
chaval
así
que
sí
mira
mira
a
ti
que
te
lia
para
dar
una
charla
recomendaciones
para
la
escalabilidad
de
los
modelos
bueno
los
grandes
modelos
pues
bueno
la
primera
es
la
cuantización
hemos
hablado
de
sólo
de
un
método
de
cuantización
que
son
los
métodos
de
bits
and
bytes
que
normalmente
están
bien
para
entrenar
pero
están
surgiendo
cada
vez
más
métodos
de
cuantización
post
entrenamiento
como
los
que
son
x
llama
o
gptq
por
ejemplo
a
wq
hay
muchos
ahora
mismo
vale
pero
hay
algunos
que
permiten
cuantización
hasta
dos
y
tres
bits
entonces
está
pimiento
de
todos
esos
métodos
justo
y
ha
salido
una
librería
que
integra
muchos
de
estos
creo
que
también
es
de
hagin
face
pero
ahora
se
me
ha
ido
el
nombre
pero
era
cuantizo
o
cuantido
o
algo
o
algo
de
eso
vale
o
sea
que
está
ascendientes
porque
hay
una
librería
nueva
que
para
cuantización
en
torches
que
integra
muchos
de
estos
métodos
en
una
única
librería
eso
es
lo
primero
la
cuantización
lo
segundo
elegir
un
modelo
de
lenguaje
adecuado
en
un
tamaño
adecuado
para
la
tarea
que
queremos
realizar
por
ejemplo
para
tareas
de
matemáticas
necesitamos
modelos
muy
grandes
para
poder
hacer
las
cosas
pero
para
una
tarea
de
rach
normal
lo
normal
es
que
con
un
modelo
de
tres
siete
o
trece
de
como
mucho
pues
ya
no
salga
a
cuenta
y
eso
yo
creo
que
es
todo
luego
pues
hombre
tener
en
cuenta
también
el
tamaño
de
secuencia
máxima
que
capta
cada
uno
de
esos
modelos
y
sobre
todo
es
afinar
mucho
con
el
tamaño
adecuado
para
la
tarea
que
a
la
que
nos
estamos
dedicando
no
escalarlo
más
de
la
cuenta
la
librería
de
la
que
hablas
puede
ser
cuánto
cuánto
perfecto
puesla
comparto
y
al
encontrar
ahí
genial
es
que
ha
salido
en
el
blog
hace
nada
de
hagin
face
además
si
por
si
quieres
compartir
también
el
post
del
blog
vale
pues
lo
busco
ahora
cuando
mire
el
tema
de
gpus
se
podría
estar
el
fin
tuning
a
una
gpu
de
8
o
6
gigas
y
para
rach
bueno
tamaños
y
capacidades
utilizarla
en
rach
en
inferencia
definitivamente
sí
eso
eso
seguro
la
hora
del
fin
tuning
vamos
a
ir
muy
justitos
pero
si
ajustamos
el
tamaño
de
secuencia
definitivamente
sí
simplemente
que
nos
vamos
a
restringir
a
un
tamaño
de
secuencia
pequeñito
de
512
o
de
256
probablemente
y
el
tamaño
del
modelo
pues
probablemente
no
pueda
superar
los
2
billones
de
parámetros
que
bueno
no
está
nada
no
está
nada
mal
no
ya
podemos
adaptar
un
gema
como
el
que
hemos
visto
y
simplemente
pues
en
lugar
de
utilizar
4.096
de
tamaño
de
secuencia
pues
lo
bajamos
a
1.024
a
512
y
probablemente
sí
que
nos
pueda
entrar
en
8
o
en
6
gigas
otra
cosa
luego
es
cuánto
tarde
lo
bueno
de
estos
modulos
es
que
como
utilizan
rota
y
posicional
en
bedding
luego
puedes
o
sea
que
tú
lo
hayas
entrenado
en
unos
tamaños
de
secuencia
muy
limitados
luego
puedes
ponerlos
en
inferencia
con
tamaños
de
secuencia
mucho
mayores
y
funcionan
con
lo
cual
eso
pues
bueno
los
hace
también
más
accesibles
para
para
el
público
en
general
y
vamos
para
la
segunda
pregunta
definitivamente
sí
a
la
hora
de
hacer
inferencia
no
habría
ningún
problema
simplemente
pues
tener
en
cuenta
el
tamaño
de
secuencia
también
genial
yán
contra
blog
también
lo
compartí
y
bueno
creo
que
se
repite
un
poco
pero
ya
como
son
las
preguntas
también
las
pongo
respondemos
y
finalizamos
hay
alguna
página
re
social
para
seguirlo
para
encontrar
estos
papers
métodos
o
técnicas
de
verdad
que
lo
mismo
link
edin
y
la
nueva
newsletter
de
lenguaje
natural
punto
así
no
voy
a
seguir
haciendo
publicidad
o
sea
que
por
mencionar
otra
bueno
pues
que
sepáis
que
en
hagan
feisa
y
están
bueno
los
post
que
son
más
accesibles
pero
luego
también
están
los
papers
o
sea
hay
un
tipo
que
se
llama
acalic
que
si
le
seguís
comparte
un
montón
de
cosas
en
y
comparte
los
papers
directamente
subidos
o
sea
no
me
acuerdo
como
se
llama
hagan
feis
papers
o
algo
así
o
publicación
no
se
llama
eso
marina
es
simplemente
las
papers
también
lo
comparto
genial
y
ahí
pues
tenéis
de
muchas
publicaciones
que
van
saliendo
todos
los
días
apuntaros
a
la
newsletter
dale
y
en
caso
de
que
no
puedan
escribirte
por
link
edin
yo
creo
que
simplemente
tenéis
que
mandarle
petición
de
para
conectar
no
sí
sí
sí
de
todas
formas
deja
mi
correo
si
quieres
por
aquí
abaca
lo
pongo
por
aquí
voy
a
dejar
el
correo
a
ver
si
me
deja
escribir
yo
creo
que
simplemente
sólo
no
como
no
tienes
admin
rights
o
algo
así
espera
te
lo
paso
a
ti
aquí
vale
para
que
lo
pongas
si
alguno
nos
deja
de
escribirme
por
link
edin
hoy
se
escribirá
ese
correo
vale
y
no
gestionamos
por
ahí
es
que
el
in
que
viene
a
veces
hace
estas
cosas
y
es
verdad
que
ahora
te
tienes
también
un
máximo
de
invitaciones
en
las
que
puede
escribir
un
mensaje
también
a
pon
un
límite
en
eso
también
al
final
todo
tacata
sí
sí
sí
sí
se
está
volviendo
en
fin
vale
y
última
pregunta
creo
ya
después
de
definir
un
modelo
se
puede
implementar
en
lanchain
para
crear
un
chatbook
con
él
hay
esa
es
una
pregunta
y
si
es
así
qué
tan
recomendables
o
si
existen
mejores
técnicas
o
herramientas
que
la
ching
yo
como
soy
el
de
school
diré
que
hay
está
que
está
muy
bien
principalmente
bueno
de
y
ahí
no
no
estoy
descubriendo
nada
nuevo
es
una
empresa
muy
establecida
en
el
mundo
de
la
inteligencia
artificial
es
una
empresa
alemana
funciona
muy
bien
tiene
grandes
profesionales
y
lleva
muchos
años
haciendo
esto
de
rach
nos
acaban
de
subir
a
esta
ola
hace
hace
unos
meses
no
con
lo
cual
definitivamente
pues
es
más
es
más
fiable
esa
es
una
alternativa
haystack
luego
lanchain
donde
tiene
la
ventaja
principalmente
es
cuando
utilizamos
modelos
gigantes
propietarios
porque
solamente
con
esos
modelos
gigantes
propietarios
encontramos
una
ventaja
en
ese
encadenamiento
de
llamadasque
es
sobre
la
idea
sobre
la
cual
está
montado
el
lanchain
no
que
es
pues
ese
encadenamiento
de
llamadas
con
mucho
prompting
y
demás
un
poco
el
mismo
concepto
que
tiene
por
detrás
llama
index
yo
si
tengo
que
elegir
entre
llama
index
y
lanchain
a
mí
personalmente
pero
hoy
es
de
nuevo
creo
que
esto
es
un
poco
cuestión
de
gustos
personales
a
mí
personalmente
me
gusta
un
poco
más
llama
index
creo
que
lanchain
surgió
así
muy
rápido
y
fue
un
boom
y
probablemente
para
trabajar
así
vais
a
trabajar
con
gpt4
con
gpt3.5
lanchain
nos
va
a
funcionar
muy
bien
pero
si
vais
a
utilizar
modelos
propios
y
demás
para
eso
yo
los
desplegaría
antes
con
llama
index
o
con
haystack
a
mí
personalmente
me
gustan
más
aunque
creo
que
esto
también
pues
es
mucho
cuestión
de
gustos
incluso
podéis
combinar
las
a
mi
puede
gustar
el
splitter
de
uno
pero
me
puede
gustar
la
integración
con
bases
de
datos
vectoriales
de
otro
entonces
bueno
también
ahí
pues
yo
os
animo
a
que
vayáis
desarrollando
un
poco
vuestro
gusto
particular
pero
si
me
tengo
que
quedar
con
una
yo
me
quedo
con
el
old
school
haystack
que
lo
llevo
utilizando
muchos
años
y
funciona
muy
bien
muy
estable
perfecto
pues
creo
que
será
todo
increíble
una
hora
40
de
esta
yeri
de
buen
lunes
muchas
gracias
a
todos
por
esta
gran
participación
y
por
todas
las
preguntas
de
verdad
muchas
gracias
si
la
verdad
que
maría
por
supuesto
por
invitarme
a
ti
a
ti
por
venir
y
por
insistir
no
no
encantadísimo
la
verdad
y
creo
que
todo
el
mundo
que
ha
asistido
también
mucha
info
mi
cabeza
va
a
flotar
muy
buena
charla
dice
eso
es
buena
señal
ahora
lo
que
hay
que
hacer
es
echarse
una
siesta
genial
pues
nada
eso
de
verdad
muchas
gracias
a
lejandro
muchas
gracias
también
a
todas
las
personas
que
han
asistido
ahora
estamos
en
la
última
ruta
del
jacatón
o
sea
que
adelante
mucho
éxito
y
si
tenéis
cualquier
duda
las
podéis
seguir
preguntando
por
por
discord
y
si
hace
falta
alguna
otra
sesión
de
mentoría
o
que
respondemos
preguntas
por
por
discord
también
también
a
vuestra
disposición
vamos
a
por
ello
a
por
ello
que
yo
amante
chao
Buen
Corin.
éste | Alejandro Vaca |
Prospectiva estratégica y NLP, Cristina Vila Carreira | #Somos600M | Hola
a
todos.
Hoy
es
el
segundo
día
de
keynote
de
nuestro
hackathon.
Somos
600M
y
os
traigo
dos
ponencias
súper
interesantes.
Antes
que
nada
vamos
a
recordar
el
objetivo
de
la
iniciativa
y
es
que
queremos
crear
recursos
de
procesamiento
de
lenguaje
natural
en
español
y
lenguas
cooficiales
que
representan
la
diversidad
de
los
600
millones
de
personas
hispanohablantes.
Para
ello
hemos
organizado
un
hackathon
y
puesto
a
disposición
de
la
comunidad
Recursos
de
Computación
y
bueno
además
como
creemos
muchísimo
en
la
formación
y
en
haceros
pensar
estamos
organizando
keynotes
como
las
de
hoy
para
daros
a
conocer
pues
diversos
aspectos
o
enfoques
del
procesamiento
de
lenguaje
natural.
Hoy
vamos
a
comenzar
con
una
keynote
súper
especial
ahora
le
decía
justo
a
Artistina,
creo
que
son
realmente
es
diferente
a
las
charlas
así
un
poco
más
técnicas
que
hemos
estado
viendo
pero
realmente
tengo
muchísima
curiosidad
por
ver
justo
hasta
aquí.
Vamos
a
hablar
sobre
perspectiva
estratégica,
diseño
de
futuros,
construcción
de
escenarios
y
prototipado,
todo
relacionado
con
el
mundo
de
la
NLP.
O
sea
que
os
presento
a
nuestra
ponente
Cristina
Vila
es
experta
en
conectar
negocio,
tecnología
y
personas,
es
ingeniera
de
teleco,
tiene
un
máster
informática
y
actualmente
está
causando
otro
máster
en
ciencias
cognitivas,
ha
ocupado
puestos
de
responsabilidad
en
diferentes
compañías
de
seguros
siendo
elegida
Forte
under
40
por
INS.
Actualmente
trabaja
como
asesora
con
ADL
en
el
sector
asegurador
y
es
mentora
de
varias
startups,
ejerce
deformadora
en
escuelas
de
negocio
como
el
ISDI
y
la
ESIC
y
además
como
conferenciante
participan
foros
de
temáticas
sobre
futuro,
tecnología,
salud
y
diversidad.
Por
último
destacar
que
el
septiembre
lanzó
su
libro
"Prepara
tu
organización
para
el
futuro".
Además
antes
de
darle
comienzo
quería
deciros
que
nos
ha
dejado
una
pregunta
que
os
transpasa
toda
la
comunidad
y
es
que
a
ver
si
veis
el
futuro
en
positivo
o
en
negativo.
O
sea
que
bueno
nos
contáis
en
los
comentarios
y
os
vamos
leyendo.
Muchísimas
gracias
Cristina
y
bienvenida
y
todo
a
ti
yo.
Pues
muchísimas
gracias
a
ti
María.
Es
un
placer
estar
aquí
y
hoy
vamos
a
hablar
de
diseño
de
futuros.
Está
muy
relacionado
con
lo
que
hacéis
porque
bueno
vosotros
en
si
tenéis
un
propósito
pero
todo
el
NLP
tiene
una
capacidad
de
cambiar
el
mundo
a
nivel
exagerado.
Entonces
hoy
vamos
a
ver
cómo
podemos
trazar
escenarios
relacionados
con
diferentes
tendencias
y
con
diferentes
sectores
sistemáticas
en
los
que
el
NLP
tiene
mucho
que
decir.
Como
decía
María
os
hemos
dejado
una
pregunta
que
se
llama
el
Fuego
de
Polak
sobre
cómo
veis
el
futuro.
Esa
primera
pregunta
es
si
lo
veis
en
positivo
o
negativo
y
ellos
vamos
a
pedir
que
os
mojeis.
También
puede
ser
un
intermedio
yo
que
soy
gallega
y
él
depende
pero
lo
veis
en
positivo
o
negativo
y
a
partir
de
ahí
vendría
una
siguiente
pregunta
y
es
¿creéis
que
podéis
hacer
algo
porque
el
futuro
sea
distinto?
Mi
respuesta
es
que
sí.
El
futuro
es
positivo
pero
tenemos
que
trabajar
en
que
así
lo
sea.
Venimos
en
un
escenario
que
seguro
que
suena
mucho
el
buca
que
hablábamos
antes
del
covid.
Una
etapa
muy
divulgada
en
incertidumbre,
mucha
ambigüedad
donde
la
toma
de
decisiones
adelantaba
que
podrían
pasar
cosas
pero
había
un
cierto
estatus
cúbico
después
de
una
inestabilidad
económica
de
enciernes
de
determinados
conflictos
que
todavía
no
se
habían
producido
a
nivel
geopolítico.
Luego
venía
esa
sensación
de
ansiedad,
de
incomprensión,
esa
permacrisis
que
experimentábamos
después
del
covid.
¿Qué
está
pasando?
No
sabemos
muy
bien
cuál
es
el
horizonte
que
vamos
a
enfrentar
y
empiezan
a
ocurrir
cosas
que
no
pensábamos
que
podrían
ocurrir,
como
es
el
conflicto
en
Ucrania,
como
por
supuesto
fue
el
covid
y
todo
eso
tiene
un
ámbito
muy
negativo
como
hablábamos
antes
de
elegir
esa
visión.
Pero
también
hay
una
opción
positiva
que
es
la
mirada
de
que
tenemos
que
movernos
hacia
fenómenos
abductivos,
tenemos
que
prestar
más
atención
a
la
liminal,
ser
conscientes
de
lainterconexión
de
lo
que
nos
rodea,
de
que
estamos
en
un
mundo
en
vibración
y
donde
hay
muchas
oportunidades
emergentes.
Desde
luego
la
certidumbre
es
un
tema
del
pasado,
así
que
a
nivel
financiero
podemos
seguir
haciendo
forcas,
podemos
seguir
haciendo
esas
predicciones
que
nos
permiten
tener
objetivos
acortos
en
las
empresas,
pero
tenemos
que
ampliar
los
mirados,
tenemos
que
empezar
a
pensar
ciertas
oportunidades
que
van
a
surgir
y
a
día
de
hoy
son
emergentes.
Algunos
apuestan
por
lo
que
ahora
parece
un
futuro
lejano
y
Elon
Musk,
sabéis
que
tiene
Neuralink,
sabéis
que
tiene
Space
X,
comprado
de
X,
antes
Twitter
y
es
una
persona
con
una
visión
totalmente
diferente
y
exponencial
de
lo
que
es
el
mundo.
También
tenemos
lo
contrario
que
le
ha
ocurrido
a
Blockbuster
o
a
Kodak
que
no
ha
sabido
ver
los
cambios
que
se
abecinaban,
se
acomodaron
en
su
situación
y
eso
supuso
que
no
pudieran
adaptarse
a
los
tiempos.
Pero
la
realidad
es
que
deberíamos
trabajar
en
ambas
miradas
con
esa
ambidestreza
que
nos
permite
un
crecimiento
sostenible,
es
decir,
tenemos
que
seguir
fomentando
los
negocios,
las
realidades
que
tenemos
entre
manos,
pero
tenemos
que
reinventarnos
este
lugar.
Los
ciclos
de
innovación
además
estamos
viendo
que
cada
vez
son
más
cortos
y
este
nuevo
ciclo
que
tenemos
ahora
está
muy
volcado
en
la
inteligencia
artificial,
las
capacidades
de
conexión
nos
prometen
otro
mundo
de
IoT,
de
robotización,
vamos
hacia
una
industria
4.0,
vamos
hacia
un
cambio
de
era.
Y
eso
obliga
que
tanto
las
empresas
como
los
organismos
como
incluso
nuestra
visión
de
preparación
profesional
tenemos
que
trabajarla
en
tres
orízoides.
Nos
propone
McKinsey
un
modelo,
un
modelo
de
madurez
actual,
un
modelo
de
crecimiento
rápido
y
uno
de
negocios
emergentes.
Entonces
tenemos
que
saber
convivir,
invirtiendo
a
nuestro
tiempo
y
esfuerzo
en
esos
diferentes
horizontes.
Lo
cierto
es
que
con
esta
otra
versión
que
os
enseño
de
Blizzard
los
horizontes
no
son
abruptos,
todas
las
disrupciones
que
van
teniendo
lugar
a
veces
son
aprovechables
en
etapas
tempranas
sin
que
hayamos
todavía
enfrentado
ese
salto
trascendental
en
el
cambio
de
horizonte.
Y
aquí
veíamos
esa
opción
del
tercer
horizonte
donde
nos
vamos
ya
a
más
escenarios
del
diseño
de
futuros.
No
es
la
agilidad
del
presente,
no
son
las
metodologías
en
startup
de
empezar
a
mover
negocios
en
un
futuro
cercano,
sino
en
cómo
podemos
mirar,
elevar
la
mirada
un
poco
más
allá.
El
futuro
también
es
muy
amplio,
no
es
lo
mismo
pensar
en
cinco
años
en
diez
que
en
30,
pero
esos
futuros,
esa
mirada
nos
van
a
informar
sobre
cómo
debemos
innovar
y
qué
estrategias
debemos
tomar.
Y
no
es
solo
arte,
no
es
solo
diseño,
no
es
solo
estrategia,
sino
una
mezcla
de
todas
estas
combinaciones
y
disciplinas
que
van
a
hacer
que
podamos
repensar
cómo
es
nuestra
realidad.
Aquí
os
presento
a
Jim
Deitor,
que
es
un
artista
del
mundo
de
los
futuros.
Seguro
que
a
todos
os
apetece
muchísimo
ir
a
Hawaii
a
hacer
surf,
pero
si
vais
además
tenéis
que
ir
a
visitar
la
universidad,
que
es
un
elemento
fuera
de
serie
en
términos
de
perspectiva
estratégica.
Pues
este
hombre
Jim
Deitor
nos
propone
tres
leyes
del
futuro.
La
primera,
y
me
podéis
decir
eso
a
mí
lo
sé
yo,
que
el
futuro
no
se
puede
predecir
porque
el
futuro
no
existe.
Da
igual
que
contratemos
a
los
30
mejores
futuristas
del
mundo,
que
metamos
un
montón
de
inversión
en
modelos
de
predicción,
porque
luego
suceden
cosas
que
hacen
que
esa
realidad
no
tenga
lugar.
Entonces,
podemos
tener
ciertos
elementos
de
suponer
escenarios,
pero
nunca
vamos
a
predecir
realmente
lo
que
va
a
pasar.
Además
que
existen
multitud
de
futuros,
igual
que
existen
multitud
de
presentes.
Nuestra
realidad,
aquí
ahora
mismo,
incluso
de
las
que
de
todas
las
personas
que
estamos
aquí,
es
distinta,
aunque
tenemos
ciertos
criterios
comunes
que
nos
llevan
a
un
escenario
de
vida
parecernos.
La
segunda
ley
es
que
cualquier
idea
útil
sobre
el
futuro
tiene
que
parecer
ridícula
en
el
presente.
Pensar
cuando
Tesla
hablaba
deinterconectar
elementos
por
el
aire,
que
pudieran
transmitir
información
o
pensar
de
nada
lofles
cuando
nos
hablaba
ya
de
hacia
dónde
podía
ir
la
inteligencia
artificial.
Y
la
última
es
que
damos
forma
a
nuestras
herramientas
y
ellas
nos
dan
forma.
Más
allá
del
escenario
determinista
que
puede
despertar
esta
tercera
frase
que,
por
cierto,
es
de
McLuhan,
lo
que
nos
viene
a
decir
es
que
nosotros,
con
las
ideas
que
estamos
teniendo
en
el
presente
sobre
el
futuro,
estamos
construyendo
ese
futuro.
A
veces
parece
una
locura,
la
ciencia
ficción.
A
veces,
pues
si
pensamos
en
grandes
pensadores
del
pasado
que
anticipaban
ideas,
que
por
cierto
parecen
ridículas,
pues
esas
ideas
han
configurado
nuestro
ideario
colectivo
sobre
lo
que
ahora
es
el
presente.
Y
muchas
veces
lo
que
hemos
vivido
yendo
mucho
más
allá
de
lo
que
se
imaginaba,
pero
sobre
esas
bases.
Entonces,
hemos
de
jugar
con
muchos
escenarios
para
trabajar
visiones
diferentes
y
no
para
adivinar
qué
es
lo
que
va
a
ocurrir,
sino
para
construir
esos
escenarios
deseados.
Porque
tenemos
unos,
aquí
sí
vemos
en
este
gráfico,
que
se
llama
el
cono
de
Boris,
tenemos
un
punto
presente
y
de
a
partir
de
ahí
empezamos
a
generar
escenarios.
Hay
algunos
que
son
más
continuistas,
más
probables,
otros
que
son
los
preferibles,
otros
son
Wild
Cards,
que
ahí,
pues
por
ejemplo,
tenés
el
efecto
del
COVID.
Pero
si
pensamos
que
ocurren
estos
casos,
podemos
prepararnos
y
anticiparnos.
Por
ejemplo,
la
empresa
de
HL
de
Logística,
cuando
el
volcán
islandés
cuyo
nombre
no
se
capaz
de
pronunciar
nos
dejó
en
el
2010
sin
espacio
aéreo
y
por
tanto
sin
movilidad,
fueron
los
primeros
en
reaccionar
y
tener
una
solución
por
tierra.
¿Por
qué?
Porque
habían
pensado
en
escenario
que
no
era
el
del
humo
del
volcán,
pero
sí
que
nos
dejaba
sin
esa
capacidad
de
desplazarnos
por
el
aire.
Y
que,
por
ejemplo,
con
las
tormentas
solares
es
algo
que
muy
probablemente
pueda
pasar
si
se
caen
los
sistemas
GPS.
Entonces,
¿cómo
trabajamos
estas
metodologías
de
diseño
de
futuros?
Lo
primero,
observar,
buscar.
Buscamos
señales.
¿Qué
son
las
señales?
Pues
son
elementos
de
la
realidad
que
nos
indican
que
algo
está
cambiando.
Pues
todas
las
noticias
que
vemos
sobre
IA
de
robotización,
pequeños
cambios,
en
la
industria,
de
la
medicina,
incluso
de
la
experiencia
del
paciente,
todas
esas
noticias,
ideas,
artículos,
aquellos
elementos
que
nos
elevan
a
una
realidad
distinta,
los
tomamos.
Cuando
esos
elementos
los
juntamos
y
vemos
que
hay
un
patrón
y
ese
patrón
evoluciona,
eso
es
una
tendencia.
Y
con
esas
tendencias
lo
que
haremos
es
evaluarlas
de
algún
modo,
¿no?
Pues
oye,
¿cómo
impactan
en
ese
marco
temporal
que
fijemos?
¿Y
cómo
de
probables
son
que
sucedan?
Pues
los
configuramos
y
construimos
escenarios
para
trasladarnos
a
esa
realidad
posible
que
va
a
tener
lugar.
Si
estamos
en
esa
realidad
va
a
ser
mucho
más
fácil
construir
prototipos.
Y
esto
nos
sirve
también
para
encontrar
esos
propósitos,
por
ejemplo,
en
la
utilización
de
los
lenguajas
y
de
pensamiento
natural.
Entonces,
importante
también,
no
solo
tenemos
que
ver
las
tendencias
de
forma
separada
o
la
realidad
de
forma
separada,
sino
que
vivimos
en
un
mundo
con
lo
que
hablábamos
antes,
que
todo
está
interconectado.
Aquí
veis
un
ejemplo
muy
gráfico
que
es
que
si
ponemos
a
determinadas
personas
a
lado
de
un
elefante
uno
solo
ve
la
trompa,
otro
solo
ve
la
cabeza
y
lo
que
está
viendo
uno
es
una
piedra
y
el
otro
ve
una
serpiente
y
el
otro,
pues
cada
uno
ve
una
parte
del
sistema
y
identifica
como
algo
que
no
es.
Sin
embargo,
si
nos
elevamos
y
vemos
el
conjunto,
veremos
el
sistema.
Y
estamos
en
una
época
de
problemas
muy
complejos
y
para
atacar
estos
problemas
complejos
no
basta
solo
con
simplificarlos,
sino
con
entender
las
repercusiones
que
cada
elemento
tiene
en
el
siguiente.
Vamos
a
ver
una
serie
de
tendencias,
sobre
todo
para
que
alimenten
el
ejercicio
que
podáis
hacer
vosotros
a
posterior
y
de
construir
escenario
y
ver
dónde
podemos
elegir
prototipos
y
desoluciones
utilizando
el
procesamiento
de
lenguaje
natural
en
base
a
las
tendencias
que
puedan
construir
esos
escenarios.
Vamos
a
por
ello.
Como
os
decía
aquí
tenéis
un
ejemplo
para
volver
a
recordar
cómo
se
construyen
y
extendemos
las
señales
y
nos
configura
una
tendencia.
En
este
caso,
por
ejemplo,
las
pruebas
que
se
están
haciendo
para
temas
de
cáncer
con
CRISPR
o
el
tema
de
impresión
3D
de
órganos,
pues
eso
nos
hace
ver
que
hay
una
tendencia
de
ampliar
la
longevidad,
pero
en
buen
estado,
el
health
span
que
le
llamamos.
Me
diréis,
Cristina,
pero
hay
otras
tendencias
relacionadas.
Una
señal
puede
nutrir
a
diferentes
tendencias
y
luego
hay
macrotendencias
que
en
sí
mismas
incluyen
a
tendencias
más
chiquitas.
Pero
vamos
a
LIO.
Primera
tendencia
que
claramente
está
relacionada
con
el
procesamiento
de
lenguaje
natural
y
donde
tiene
cabida
para
casos
de
usos
es
la
revolución
de
las
máquinas.
Pensar
y
hacer
ya
no
es
sólo
cosa
de
humanos.
En
esto
se
engloban
las
inteligencias
artificiales,
inteligencias
artificiales
generales
cuando
lleguen.
Robots
que
este
año
nos
están
dando
muchas
sorpresas,
drones,
enjambres
de
robots,
los
dilemas
éticos,
temas
de
entrenamiento,
nuevas
formas
de
trabajo,
organizaciones
descentralizadas,
computación
cuántica
que
nos
va
a
afectar
en
las
capacidades
computacionales.
En
esta
tendencia
de
la
revolución
de
las
máquinas,
vamos
a
ver
muchos
avances
en
los
próximos
años.
El
propio
procesamiento
de
lenguaje
natural
es
resultado
de
esto,
pero
a
la
vez
puede
ser
generador
de
nuevas
evoluciones.
Aquí
como
os
decía,
os
dejo
un
par
de
señales
y
también
tenemos
que
pensar
que
esta
tendencia,
lo
que
es
el
de
pensamiento
sistémico,
tiene
relación
con
nuestro
tipo
de
tendencias,
como
puede
ser
la
ciberseguridad,
el
que
todo
esté
conectado,
el
futuro
del
trabajo.
Una
segunda
es
que
todo
es
digital
y
está
conectado.
Estamos
conectando
la
industria,
nos
estamos
conectando
a
nosotros
mismos,
empezamos
a
tener
gemelos
digitales,
empezamos
a
tener
también
sistemas
descentralizados
para
traza
de
procesos.
Entonces,
esta
es
otra
tendencia
que
claramente
puede
nutrir
la
información
de
los
NLP
y
también
puede
ser
utilizada
para
su
evolución.
La
hiperpersonalización,
¿qué
nos
demanda
cada
vez
más
las
personas?
¿Quieren
cosas
únicas
a
medidas
e
inmediatas?
¿Productos
y
servicios,
atención,
interlocutores
y
canales,
uso
de
datos
consciente
e
inconsciente?
Muchas
veces
están
usando
nuestra
información
si
que
nosotros
seamos
conscientes,
es
verdad
que
se
está
regulando
mucho
en
este
sentido,
pero
todavía
hay
mucho
por
evolucionar
y
el
que
queremos
todo
ya,
queremos
que
se
generen
las
cosas
en
el
momento.
Esta
hiperpersonalización
va
muy
de
la
mano
con
la
visión
de
agentes,
que
se
construyan
cosas
a
medida
de
nuestras
necesidades
y
del
conocimiento
de
lo
que
queremos.
Esta
parte
de
interlocución
también
conecta
con
el
mundo
NLP
en
gran
medida.
Luego
viene
toda
la
revolución
de
la
realidad
virtual
y
aumentada.
Tanto
le
ovemos
con
gafas
como
implantes
en
los
ojos,
empezamos
a
ver
también
temas
implantes
cerebrales,
luego
está
todo
el
mundo
virtual
de
metaversos,
toda
la
moda
que
ha
habido
con
el
tema
NFTs,
pues
aquí
también
tenemos
otra
tendencia
al
alza
en
los
próximos
años.
Aquí
otra
de
cliente,
la
experiencia
ante
todo,
la
gente
está
maximizando
la
necesidad
de
experimentar
más
allá
del
posee
y
cada
vez
es
más
difícil
sorprender
a
la
gente.
Entonces
vemos
como
los
temas
de
sharing,
plataformas
de
uso
compartido
cada
vez
están
más
al
alza,
los
modelos
de
suscripción,
de
renting,
experiencias
que
sean
distintas
como
pueden
ser
los
viajes
especiales,
experiencias
espaciales,
incluso
se
están
retomando
rituales
más
relacionados
con
los
sensorial,
nuevas
visiones
de
los
psicotrópicos.
Hoy
leía
por
ejemplo
también
que
la
propia
está
generando
nuevas
drogas
no
sólo
para
temas
de
decoración
sino
también
para
temas
de
gestión
psicotrópica.
Entonces
aquí
el
NLP
de
nuevo
tiene
muchasconexiones
sobre
cómo
configurar
esta
experiencia
y
también
esa
parte
anterior
como
veíamos
de
cómo
hacerla
única
para
las
personas
en
concreto
que
demanden
algo
a
medida.
Luego
está
claro
que
los
los
hilos
de
industria
se
han
roto
en
una
marca
puede
estar
comercializando
productos
que
inicialmente
no
pudieran
parecer
de
su
ámbito.
La
SCASEP
que
es
el
gran
elefante
en
la
sala
lo
estamos
empezando
a
vivir
más
como
subida
incremento
de
precios.
Lo
hemos
visto
con
suministros
básicos
como
puede
ser
la
luz,
lo
estamos
experimentando
con
el
aceite
pero
es
que
esto
va
mucho
más
allá
en
unos
años
pues
hay
determinadas
producciones
como
puede
ser
la
de
café,
chocolate,
etcétera
que
estamos
muy
acostumbrados
a
tenerlos
a
diario
y
que
pueden
ser
prohibitivos
en
un
momento
dado.
Y
nosotros
vivimos
en
una
situación
privilegiada
pero
hay
mucha
gente
que
ahora
mismo
está
teniendo
SCASEP
de
comida
o
de
materia
prima
básica
para
su
vida.
Esto
se
conecta
también
a
la
SCASEP
con
los
nuevos
materiales
igual
que
desaparecen
opciones
aparecen
otras
nuevas
pero
también
muy
importante
con
el
concepto
de
la
nueva
abundancia.
La
gente
está
empezando
a
pensar
de
forma
distinto,
consume
como
piensa
y
exija
las
empresas
que
producen
como
diga.
Entonces
aquí
está
todo
lo
relacionado
con
la
sostenibilidad,
con
la
economía
de
los
valores
y
con
los
compromisos
SG
más
allá
de
las
regulaciones
desde
el
comportamiento.
Y
la
vuelta
a
los
orígenes,
la
gente
está
apreciando
más
lo
artesano
y
la
natural.
Aquí
es
casi
la
contratendencia,
la
parte
tecnológica
de
cómo
la
gente
quiere
mantener
cierta
parte
humana
de
tanto
de
creación,
de
diseño
que
también
surgen
los
nuevos
artesanos
digitales
que
puede
ser
el
diseñador
de
los
Amid
Yurlings.
Pero
independientemente
de
eso
hay
una
clara
tendencia
de
que
la
gente
quiere
mantener
ese
vínculo
con
tanto
lo
que
son
tradiciones
como
también
con
procesos
naturales,
con
comida
natural,
con
las
garantías
de
que
no
produzcan
daños
en
su
organismo.
Desde
luego
otra
de
las
grandes
preocupaciones
es
la
seguridad,
tanto
la
física
como
lo
virtual.
Lo
hemos
visto
con
las
problemáticas
que
hay
de
desastres
naturales,
pero
también
elementos
de
geopolítica
y
por
supuesto
todo
el
tema
de
ciberseguridad
que
conecta
también
con
la
digitalización
y
con
el
uso
de
nuestros
datos,
el
que
realmente
tengamos
la
conciencia
de
que
nuestra
identidad
está
siendo
protegida
y
no
sobreprotegida.
Aquí
hay
muchas
maneras
de
entender
y
de
regular
esta
la
visión
más
europea
o
la
base
americana,
pero
desde
luego
va
a
ser
una
de
las
grandes
filones
en
los
próximos
años.
Y
por
supuesto
la
longevidad,
vemos
como
las
tecnologías
CRISPR
que
estaba
intentando
no
utilizarlas
demasiado
más
allá
de
la
edición
genética,
más
allá
de
dónde
era
estrictamente
necesario.
Ahora
empezamos
a
tener
aprobaciones
a
finales
del
año
de
2023,
tanto
en
Estados
Unidos
como
en
UK,
como
a
nivel
europeo
de
terminar
los
tratamientos
de
enfermedad
hermanas
a
través
de
esta
edición
genética,
pero
imaginaros
todas
las
capacidades
que
tenemos
de
edición
genética
con
los
grandes
científicos
que
tenemos
si
las
aumentamos
con
toda
la
capacidad
de
la
inteligencia
artificial.
Aquí
veis
que
hay
un
montón
de
casos
de
uso
sobre
los
que
podría
trabajar
del
procesamiento
de
lenguaje
natural.
Con
estas
tendencias,
ahí
podéis
hacer
el
ejercicio
de
poner
un
horizonte
temporal,
por
ejemplo
2030,
y
decidir
cómo
creéis
que
van
a
impactar
y
cuál
es
la
probabilidad
de
que
sean
una
realidad
en
ese
momento.
Y
a
partir
de
ahí
podéis
construir
escenarios,
os
podéis
quedar
con
un
par
de
ellas,
ahora
os
digo
cómo
lo
haríamos,
y
decidir
un
escenario
o
de
continuidad,
o
sea
que
las
cosas
se
llaman
son
las
iguales,
de
disciplina,
que
tenéis
el
ejemplo
del
COVID,
la
realidad
supuso
que
seguíamos
haciendo
determinadas
cosas,
pero
tenemos
que
estar
recluidos
en
casa.
Colapso,
que
aquí
no
lo
tenemos
en
nuestra
realidad
actual,
pero
si
le
preguntamos
a
un
ucraniano
sí
que
ha
vividoun
colapso
a
corto
plazo,
y
luego
está
la
transformación,
que
es
ya
una
revolución
industrial
que
hace
que
vivamos
una
realidad
totalmente
distinta.
Entonces
eligiendo
el
tipo
de
escenario
que
queráis,
aquí
yo
por
ejemplo
os
he
hecho
un
ejercicio
de
cómo
pasar
de
tendencias
a
escenarios,
quedándonos
con
dos
de
las
tendencias,
el
que
todo
es
digital
y
la
escasez.
Pues
aquí
como
veis
están
enfrentadas,
o
sea
que
todo
es
digital
o
que
todo
pasa
físico,
y
luego
en
cuanto
a
la
escasez
es
que
hay
restricciones
o
que
nos
ponemos
a
gastar
como
lucros.
Entonces
si
vamos
cogiendo
los
cuadrantes,
decimos
hoy
todo
es
digital
y
hay
restricciones,
pues
vos
con
unos
nuevos
patricios.
Hay
restricciones
y
volvemos
a
lo
físico,
pues
tendremos
que
volver
a
aprender
los
procesos
que
tenían
nuestros
abuelos.
Que
todo
se
vuelve
físico
y
seguimos
gastando,
pues
es
el
centro
comercial
de
los
años
90,
¿no?
Y
que
todo
se
vuelve
digital
y
que
seguimos
gastando
como
locos,
pues
eso
será
intratable.
Pero
por
ejemplo
si
nos
quedáramos
tendríamos
que
elegir
uno
de
los
escenarios
y
sobre
él
construiríamos
un
prototipo,
que
es
cómo
el
procesamiento
de
lenguaje
natural
nos
puede
ayudar
a,
o
sea,
cómo
impacta
en
ese
escenario,
¿vale?
Que
impacto
tiene,
que
oportunidades
levantan,
que
riesgos
levantan
y
con
eso
podríamos
buscar
soluciones
utilizando
esta
tecnología.
En
este
escenario
para
tener
más
detalle
de
qué
consiste,
qué
impactos,
qué
oportunidades,
qué
riesgos
surgen,
deberíamos
plantearnos
los
desde
diferentes
puntos
de
vista,
que
este
es
el
STIP
V
Framework
que
le
llamamos
aquí,
que
es
desde
el
punto
de
vista
social
como
será
ese
escenario
desde
el
punto
de
vista
tecnológico,
económico,
medioambiental,
político
ilegal
y
qué
valores
juegan
en
ese
escenario,
un
papel
fundamental.
Entonces
la
idea
es,
como
habéis
visto,
partimos
de
un
punto
de
presente
con
esas
tendencias
que
os
contaba,
que
os
podéis
quedar
con
dos
a
hacer
ese
escenario
de
ponerlas
enfrentadas
y
elegir
uno
de
los
escenarios,
en
ese
escenario
construir
cómo
es
la
sociedad,
tecnología,
economía,
etcétera,
etcétera
y
pensar
impactos
del
procesamiento
de
lenguaje
natural
hay
oportunidades
y
de
esas
oportunidades
como
lo
solucionaríais.
Y
con
eso
os
podéis
traer
ideas
al
presente
de
backcasting,
de
qué
elementos
puede
empezar
a
construir
ahora
para
que,
si
se
da
ese
escenario
o
uno
parecido,
como
podemos
tener
una
idea
o
de
negocio
o
una
idea
que
ayuda
a
la
sociedad
utilizando
ese
procesamiento
de
lenguaje
natural.
Bueno,
ahora
os
dejo
esos
cinco
minutillos
para
que
comentéis
si
queréis
alguna
pregunta
o
lo
que
sea.
Aquí
os
dejo
un
link
para
que,
si
os
ha
interesado
el
tema
que
tenéis
ahí
mi
libro
para
continuar
leyéndolo.
Y
nada,
veo
por
aquí
que
alucinante
martínez
nos
dice
que
es
negativo
por
la
pérdida
de
la
revancia
del
AUE.
Deberíamos
reforzar
iniciativas
con
alto
valor
moral
y
no
tanto
económico.
Perfecto.
Entonces,
alucinante
martínez,
es
negativo
y
la
pregunta
es
¿crees
que
puedes
hacer
algo
por
cambiar
eso?
¿Cómo
refórtamos
esas
iniciativas
con
alto
valor
moral
y
no
tanto
económico?
Lo
dejamos
ahí
para
que
levantas
ese
riesgo
o
esa
oportunidad.
Pues
a
ver
también
si
entre
todos,
si
algún
colega
que
esté
escuchando
se
le
ocurre
y
levantáis
alguna
iniciativa
para
promover
que
la
Unión
Europea
siga
siendo
relevante.
Con
China
es
una
situación
un
poco
distinta.
Sabemos
que
ahí
el
tema
de
datos
tiene
un
batiz
distinto.
Y
nada,
mira,
sí
que
se
puede.
Pues
si
se
te
ocurra
una
idea
estaré
deseando
escucharla
que
me
la
cuentes
y
leamos
a
alguien
más.
Total.
Una
cosa
que
es
solo,
puntuación.
Cuando
hagas
preguntas
puedes
hacerlas,
obviamente,
encantada
de
que
hablas
con
la
gente.
Tarda
un
poquito
entre
que
llegan
y
después
se
manda
el
mensaje
para
que
se
oye
un
poco
de
delay.
No
hay
problema.
Hay
aquí
otra
que
dice
"Roberico,
hola,
hola,
Roberico,
gracias.
Tuvisos
que
apostar
por
una
única
tecnología
para
el
2025,
cuáles
elegirías".
A
mí
me
lleva
interesando
mucho
desde
enero
losrobots.
Como
integramos
la
inteligencia
artificial
en
robots,
pero
que
no
necesariamente
son
Android.
Veo
esa
siguiente
evolución
tanto
en
la
parte
industrial
como
incluso
en
la
parte
de
consumo.
Y
luego
me
gusta
mucho
las
redes
neuronales
organoides
que
utilizan
temas
de
los
propios
músculos
o
las
neuronas
del
cerebro
o
las
neuronas
de
motricidad
para
generar
capacidades
entrenables.
Entonces
esa
parte
que
es
como
muy
emergente,
pero
tiene
una
parte
muy
muy
chula
y
todavía
no
he
escuchado
mucho
de
ella.
Leonardo,
gracias
Apilionardo.
Me
encantó
algún
te
diste
y
la
presentación
de
Cristina.
La
verdad
que
a
mí
también.
Muchas
gracias.
Es
muy
optimista.
Yo
sí
que
es
verdad
que
soy
una
persona
bastante
optimista
en
todo.
Obviamente
no,
no
se
me
ha
hecho.
Pero
creo
que
es
importante.
Me
ha
gustado
mucho
tu
visión
y
bueno,
la
verdad,
muchas
gracias
por
reforzarle
también
con
un
desimplimista.
Ah
mira,
te
vuelvo
a
preguntar
a
mi
delante.
Le
has
caído
bien.
Soy
un
desimista
pero
realista
también.
Es
decir,
no
creo
en
los
mundos
ideales.
Creo
que
hay
que
ir
haciendo
pequeños
cambios.
Creo
que
hay
que
tener
grandes
objetivos,
pero
que
ir
teniendo
pequeñas
metas.
Y
sobre
todo
hay
que
enredar
a
mucha
gente
para
hacer
los
cambios.
Pues
bien,
es
un
bueno...
Ah
mira,
otra
pregunta
de
Ramón.
La
gente
se
va
animando.
Claro,
estupendo.
Mi
problema
con
esto
es
que
el
tiempo
entre
que
aparcen
las
primeras
señales
y
que
llegan
al
futuro
es
muy
corto
para
mi
capacidad
de
construir.
Necesito
detectar
las
señales
de
las
señales.
Bueno,
al
final
es
buscar
las
mejores
cosas
un
poquito
más
emergentes.
No
tiene
más
riesgo,
menos
probabilidad
de
que
ocurran,
pero
quizás
hay
más
oportunidades
de
encontrar
mucho.
Porque
es
verdad
que
hay
mucha
gente
trabajando
en
estos
temas.
Pues
si
te
pasa
como
que
se
te
hago
tan
rápido,
pues
cambia
un
poquito
el
horizonte
de
las
que
sean
probables.
¿Qué
te
parece
la
carrera
de
los
huyanos
de
parámetros
en
los
LNM?
Si
hemos
llegado
ya
al
pico,
a
lo
mejor
la
envidia
está
aún
por
llegar.
Yo
creo
que
siempre
que
lo
mejor
está
por
llegar.
Y
la
historia
nos
lo
ha
demostrado.
Ahora
bien,
esto
también
tiene
impactos.
Tiene
impactos
de
consumo
de
agua,
tiene
impactos
energéticos,
tiene
impactos
de
que
también
tenemos
que
maximizar
para
que
hacemos
uso
de
este
tipo
recurso.
Pero
esto
le
pasaba
a
Bill
Gates
cuando
estaba
en
su
momento
que
necesitaba
también
capacidad
para
hacer
sus
pruebas
antes
y
hacer
ser
mega
rico
con
Microsoft.
Entonces
llegará,
sí,
que
todo
irá
cogiendo
su
maquill,
sí.
También
tenemos
la
paradoja
de
Gibbons,
¿no?
Que
cuanto
más
tenemos,
más
usamos
y
más
queremos.
Entonces
ahí
sí
que
pongo
un
poco
de
cabeza.
Pues
me
parece
un
mensaje
súper
perfecto
para
terminar,
que
ya
justo
son
en
punto
y
nos
vamos
a
ir
a
la
segunda,
aquí
no,
del
día.
Lo
último,
creo
que
Cristina,
estás
solo
en
LinkedIn,
¿verdad?
Sí.
Porque
preguntan
por
aquí,
José,
si
estás
en
Twitter.
Efectivamente.
El
LinkedIn,
sé
que
la
tenéis,
el
QR,
pues
eso.
Ah
bueno,
Cristina,
vi
la
carrera,
ahí
está.
Genial.
Lánticas.
Pues
nada,
muchísimas
gracias,
Crist,
de
nuevo.
A
vosotros.
También
invito
a
la
gente
que
vea
esta
charla
en
diferido,
porque
sabemos
que,
bueno,
no
se
escuchan
desde
muchos
sitios
del
planeta,
también
la
gente
tiene
diferentes
responsabilidades.
Entonces,
si
escucháis
esto
en
diferido,
también
nos
vamos
a
leer
en
los
comentarios.
Todo
el
mundo
bienvenido
a
opinar
con
las
dos
preguntas.
A
ver
si
veis
el
futuro
en
positivo
o
negativo.
Y
también,
si
creéis
que
podéis
hacer
algo
para
influir
en
ello,
¿verdad?
Eso
es.
Genial.
Pues
muchas
gracias,
Crist.
Hasta
la
próxima
y...
[AUDIO_EN_BLANCO] | Cristina Vila Carreira |
Estimación de la Severidad de la Depresión en Internet, Anxo Pérez @IRLab | #Somos600M | Hola
a
todos
el
mundo,
bienvenidos
de
nuevo
a
el
segundo
día
de
Kinos
de
nuestro
hackathon
Somos
600M.
Hoy
os
traigo
dos
experiencias
súper
interesantes,
ya
hemos
estado
hablando
de
prospectiva,
de
diseño
de
futuros
con
Chris
Bila
y
ahora
pues
vamos
a
hablar
de
detección
de
depresión
en
internet,
vale.
Os
vamos
a
recordar
primero
para
la
gente
que
ha
un
poco
consistada
del
objetivo
de
nuestra
iniciativa
del
hackathon
Somos
600M,
lo
que
queremos
hacer
es
crear
recursos
abiertos
de
procesamiento
de
lenguaje
natural
en
español
y
lenguas
oficiales,
el
objetivo
realmente
es
crear
recursos
que
representen
la
diversidad
de
los
600
millones
de
personas
hispanohablantes,
que
somos
un
montón.
Entonces
para
eso
hemos
organizado
un
hackathon,
tenemos
también
a
disposición
de
las
personas
participantes,
recursos,
computación
y
también
pues
como
creemos
muchísimo
la
formación
y
creemos
que
es
muy
importante
también
pues
organizamos
kinos
como
las
de
hoy
para
pues
dar
a
conocer
diferentes
aspectos
del
PLEN
y
diferentes
aplicaciones,
como
puede
ser
aplicaciones
con
más
valor
social,
un
efecto
social
como
podría
ser
la
que
vamos
a
presentar
ahora
mismo
con
Anshop.
Os
presento
a
nuestro
oponente,
Anshop
Ereces
un
investigador
postdoctoral
del
laboratorio
de
recuperación
de
información
de
la
Universidad
de
la
Coluña,
ha
defendido
su
tesis
en
2024
y
su
investigación
se
centra
en
el
desarrollo
de
modelos
automáticos
para
la
preventura
de
apoyo
al
jarnóstico
y
detección
de
riesgos
para
la
salud
mental
en
redes
sociales.
Por
esto
metimos
utilidad
técnicas
de
NLP,
IR
y
ML
para
el
desarrollo
de
modelos
y
data
sets
en
este
campo.
O
sea
que
nos
va
a
hablar
efectivamente
de
estimación
de
la
seguridad
de
la
depresión
en
internet,
los
dos
modelos,
cuáles
son
los
recursos
y
bueno
a
ver
qué
nos
cuenta
la
verdad
que
bueno
le
decía
ahora
que
me
parece
un
tema
súper
importante
también
sé
que
a
mucha
gente
cuando
estáis
en
nuestros
jacatones
os
apetece
tocar
temas
de
salud
mental
entonces
bueno
muy
importante
está
aquí
no
para
hacerlo
bien
con
con
responsabilidad.
Anshop
todo
tuyo
ya
está
compartiendo
tus
diapositivas
o
sea
que
adelante
bienvenido
y
muchas
gracias.
Vale
pues
muchas
gracias
por
la
presentación
María
pues
como
bien
dijo
María
yo
soy
Anshop
Pérez
soy
investigador
del
IRLAP
de
la
Universidad
de
la
Coluña
y
el
tópico
de
mi
tesis
y
lo
que
venimos
haciendo
en
los
últimos
años
en
este
laboratorio
pues
es
aprovechar
los
recursos
y
los
y
los
modelos
para
estudiar
y
analizar
pues
la
estimación
de
la
severidad
de
distintas
enfermedades
mentales
en
internet
en
esta
en
esta
charla
voy
a
centrar
más
sobre
la
depresión
y
voy
a
comentar
cómo
podemos
aprovechar
estos
recursos
pues
para
generar
nuevos
modelos
y
nuevos
datasets
de
calidad
para
ayudar
en
esta
problemática.
Sin
más
dilación
voy
a
empezar
con
la
presentación
voy
a
empezar
introduciendo
un
poco
y
motivando
el
contexto
de
por
qué
creemos
que
atacar
a
este
problema
es
tan
importante
bueno
supongo
que
ya
todos
somos
más
o
menos
conscientes
del
impacto
que
suponen
las
enfermedades
mentales
en
las
personas
aquí
enseñó
algunas
estadísticas
de
acuerdo
con
la
organización
mundial
de
la
salud
más
de
320
millones
de
personas
actualmente
parecen
depresión
además
se
estima
que
el
6%
de
la
población
ha
cometido
violencia
autoinfligida
es
decir
se
ha
cometido
daño
a
sí
mismo
el
8%
de
las
mujeres
tienen
desordenes
alimenticios
y
hasta
el
5%
de
los
adultos
son
adictos
al
juego
estos
son
algunos
ejemplos
de
enfermedades
mentales
más
comunes
de
hecho
son
las
cuatro
enfermedades
que
solemos
tratar
más
en
este
laboratorio
pero
bueno
esto
se
extienda
un
montón
de
diversos
de
diversos
trastornos
en
esta
charla
voy
a
centrarle
más
sobre
la
depresión
que
la
depresión
es
una
de
las
mentales
más
debilitantes
y
en
los
peores
casos
incluso
puede
desencadenar
en
su
libro
además
sabemos
por
evidencia
clínica
por
por
estudios
una
planta
de
identificación
de
la
enfermedad
es
crucialpara
reducir
su
impacto
y
sus
futuras
consecuencias
y
por
último
en
este
contexto
las
personas
solemos
considerar
las
redes
sociales
como
canal
de
seguros
para
expresar
nuestros
problemas
en
el
día
a
día
y
esas
tendencias
más
habituales
o
todas
en
las
personas
jóvenes
en
los
chicos
y
chicas
jóvenes
además
existe
amplia
evidencia
que
ha
demostrado
que
nuestro
lenguaje
la
manera
en
que
hablamos
la
manera
en
que
nos
expresamos
el
general
los
tópicos
de
los
que
hablamos
son
indicadores
importantes
de
nuestro
estado
mental
tanto
para
bien
como
para
mal
entonces
en
este
contexto
investigadores
en
los
campos
de
recuperación
de
la
información
información
retrieval
en
inglés
inteligencia
artificial
machine
learning
y
en
el
ep
han
identificado
y
han
trabajado
mucho
en
explorar
marcadores
lingüísticos
para
desarrollar
modelos
de
atención
en
enfermedades
mentales
usando
como
fuente
de
datos
las
redes
sociales
a
pesar
de
que
se
han
obtenido
pues
modelos
y
resultados
muy
prometedores
todavía
existen
brechas
pues
para
integrar
estos
modelos
en
escenarios
reales
en
escenarios
clínicos
donde
realmente
se
puedan
aprovechar
y
es
el
objetivo
que
todos
estos
investigadores
quieren
y
queremos
de
todos
modos
hay
los
límites
principales
actualmente
en
el
despliegue
de
estos
modelos
en
el
escenario
reales
el
primero
son
límites
relacionados
con
su
generalización
muchos
modelos
están
entrenados
en
el
desed
que
solo
pertenecen
a
una
red
social
solo
pertenecen
a
un
idioma
y
cuando
transferimos
estos
modelos
pues
a
otras
redes
sociales
por
ejemplo
entramos
un
modelo
en
twitter
intentamos
probarlo
en
red
o
en
facebook
suelen
fallar
y
su
rendimiento
suele
bajar
mucho
y
el
segundo
son
límites
de
interpretabilidad
todos
estos
modelos
y
todas
estas
ideas
siempre
son
pensadas
para
que
ser
trabajadas
con
profesionales
clínicos
profesionales
de
la
salud
ya
que
estamos
muy
lejos
de
desarrollar
modelos
que
puedan
hacer
un
diagnóstico
completo
y
claro
ellos
solos
y
muchos
de
los
modelos
actúan
como
modelos
de
caja
negra
en
lo
que
es
muy
difícil
interpretar
pues
todas
sus
decisiones
entonces
como
objetivo
esta
línea
de
investigación
se
basa
en
el
desarrollo
de
modelos
y
data
sets
basados
en
síntomas
clínicos
para
identificar
señales
depresivas
en
las
redes
sociales
por
qué
basados
en
síntomas
porque
es
que
modelos
basados
en
síntomas
bueno
pues
hay
estudios
recientes
que
han
demostrado
que
basar
las
decisiones
estos
modelos
en
síntomas
clínicos
en
práctica
clínica
ayuda
a
reducir
estas
limitaciones
por
lo
tanto
en
esta
presentación
vamos
a
presentar
trabajos
donde
hemos
usado
modelos
basados
en
síntomas
para
mejorar
la
featividad
de
los
modelos
su
interpretabilidad
y
también
su
generalización
más
en
más
concretamente
pues
los
objetivos
que
buscamos
es
explotar
el
lenguaje
basado
he
usado
perdón
en
las
redes
para
construir
modelos
computacionales
que
permitan
detectar
y
estimar
la
depresión
a
través
de
estos
síntomas
en
este
contexto
aplicamos
técnicas
dentro
de
los
campos
de
recuperación
de
la
información
natural
de
un
proces
y
en
el
edificio
artificial
para
predecir
la
evidencia
de
síntomas
depresivos
y
para
esto
nosotros
nos
aprovechamos
de
cuestionar
los
clínicos
que
son
validados
y
que
se
usan
en
práctica
clínica
para
diágenos
de
carneta
de
depresión
como
son
el
de
depresión
inventólios
que
vamos
a
tratar
en
esta
charla
antes
de
empezar
a
tratar
los
modelos
y
sobre
todo
los
deitas
específicos
voy
a
introducir
un
poco
el
contexto
de
nuestro
de
nuestra
investigación
estamos
muy
relacionados
con
el
fréngue
la
iniciativa
de
risque
es
una
iniciativa
que
se
celebra
cada
año
dentro
de
la
conferencia
clef
en
la
que
los
organizadores
pues
liberan
distintas
colecciones
distintas
tareas
relacionadas
con
diversos
trastornos
mentales
en
nuestro
caso
nos
vamos
a
centrar
en
la
tarea
de
la
depresión
que
viene
a
realizarse
desde
el
año
2017
con
presencia
en
2017
2019
2020
y
la
edición
del
2020
en
el
bd
que
es
el
cuestionario
que
nosotros
usamos
para
explotar
y
entrenar
y
usarnuestros
modelos
pues
incorpora
síntomas
estos
modelos
incorporan
síntomas
del
bd
que
es
un
cuestionario
clínico
para
permitir
construir
soluciones
más
transparentes
y
sobre
todo
más
interpretables
el
bd
está
compuesto
por
21
síntomas
diferentes
aquí
muestro
tres
de
ellos
el
síntomas
acne,
spécimis
y
falta
de
energía,
los
of
energy
y
cada
uno
de
estos
síntomas
tiene
cuatro
opciones
posibles
a
responder
en
las
que
escalan
estas
opciones
en
términos
de
severidad
por
ejemplo
para
síntomas
acne,
para
síntomas
tristeza
la
opción
cero
es
no
me
siento
triste
la
opción
uno
es
me
siento
triste
la
mayoría
del
tiempo
en
la
opción
dos
me
siento
triste
todo
el
tiempo
y
por
último
la
más
severa
sería
me
siento
tan
triste
o
infeliz
que
ya
no
puedo
aguantar
entonces
nosotros
para
crear
nuestros
data
sets
usamos
como
fuente
de
datos
las
colecciones
de
risk
más
específicamente
las
ediciones
19,
20
y
21
para
construir
nuestros
recursos
estos
data
sets
tienen
etiquetas,
labels,
entrenamiento
por
cada
síntoma
del
bd
a
nivel
de
usuario
esto
que
significa
pues
que
por
ejemplo
tenemos
un
usuario
de
la
plataforma
reddit
en
la
que
sabemos
que
ha
contestado
la
opción
tres
al
síntoma
pérdida
de
energía
no
tengo
suficiente
energía
para
hacer
nada
y
tenemos
esa
información
disponible
en
el
data
set
y
además
también
tenemos
las
publicaciones
de
los
propios
usuarios
de
reddit
pues
para
este
usuario
tendríamos
tanto
la
opción
que
respondió
la
opción
tres
como
todas
sus
publicaciones
que
muchas
de
ellas
evidentemente
no
van
a
estar
relacionadas
con
el
síntoma
en
cuestión
bien
entonces
voy
a
empezar
a
hablar
sobre
nuestro
primer
trabajo
basado
en
el
desarrollo
de
data
sets
enfocado
en
síntomas
clínicos
que
es
el
bd
y
c
en
este
campo
los
data
sets
los
conjuntos
datos
tradicionales
en
la
depresión
están
compuesto
de
etiquetas
de
labels
binarias
a
nivel
de
usuario
es
decir
tenemos
usuarios
de
control
versus
usuarios
deprimidos
tenemos
todo
el
historial
de
sus
usuarios
de
control
y
todo
historial
en
las
redes
de
sus
usuarios
deprimidos
dependiendo
de
la
de
la
red
social
y
twitter
etcétera
sin
embargo
es
importante
construir
data
sets
que
cubren
manifestaciones
de
síntomas
pues
para
como
decíamos
anteriormente
mejorar
su
interpretabilidad
y
el
rendimiento
de
los
modelos
a
nivel
de
sentencia
que
permitan
crear
colecciones
de
mayor
granualidad
y
de
mayor
calidad
pues
es
lo
que
hemos
intentado
realizar
en
el
bd
y
c
de
y
el
este
de
y
de
ser
promovio
el
desarrollo
de
modelos
basados
en
marcadores
de
síntomas
presentamos
ese
trabajo
a
finales
de
2023
en
la
conferencia
siga
yar
y
aquí
dejo
un
código
QR
el
enlace
para
el
data
set
por
si
alguien
le
interesa
y
quiere
el
charum
ojo
más
y
jugar
con
el
con
el
propio
de
y
de
cien
bd
y
cen
contiene
cerca
de
cinco
mil
sentencias
anotadas
y
más
de
40
mil
sentencias
de
control
manifestando
síntomas
depresivos
y
el
data
set
cubre
los
21
síntomas
presentes
en
el
bd
de
totalidad
de
ellos
como
decía
antes
nosotros
siempre
partimos
de
los
data
set
de
risk
sin
embargo
estos
data
set
tiene
una
cantidad
de
publicaciones
muy
grande
que
si
queremos
crear
un
data
set
anotado
manualmente
por
humanos
pues
es
necesario
diseñar
una
etapa
de
retrieval
de
recuperación
basada
en
el
filtrado
de
frases
candidatas
que
pueden
ser
más
relevantes
para
cada
síntoma
entonces
la
fase
en
la
fase
de
retrieval
en
este
primer
trabajo
usamos
las
descripciones
de
las
opciones
como
cuídes
como
consultas
para
seleccionar
candidatos
entonces
por
ejemplo
tenemos
el
mismo
usuario
de
antes
que
sabemos
que
ha
respondido
la
opción
3
al
síntoma
pérdida
de
energía
y
nosotros
usamos
semántica
en
ese
mantis
rankings
perdón
elaboramos
semántica
en
este
con
ese
verde
con
sentes
ver
sobre
el
conjunto
de
frases
es
el
mismo
usuario
y
nos
permitiría
filtrar
aquellas
que
están
semánticamente
más
relacionadas
con
el
síntoma
es
decir
lo
que
consideramos
sentencias
candidatas
para
la
posterior
etiquetación
en
cuanto
al
esquema
de
notación
nosotros
usamos
un
equipo
de
tres
anotadores
expertos
conconocimientos
en
el
área
para
notar
estas
sentencias
candidatas
los
tres
anotadores
examinaron
todo
el
conjunto
de
datos
y
organizamos
sesiones
de
formación
con
ellos
más
específicamente
para
etiquetar
entre
relevante
y
no
relevante
entre
sentencia
positiva
y
narrativa
consideraron
la
siguiente
pregunta
el
usuario
habla
primera
persona
y
la
frase
ofrece
información
sobre
el
síntoma
si
es
así
la
frase
se
considera
relevante
es
decir
para
equilibrar
la
cantidad
y
calidad
de
las
sentencias
candidatas
nosotros
realizamos
experimentos
pilotos
en
las
que
participaron
estos
anotadores
y
al
final
el
proceso
dio
lugar
a
un
brail
de
simulquius
coseno
de
0
6
a
la
hora
de
hacerlo
semánticos
ahora
a
la
hora
de
hacer
la
búsqueda
semántica
y
también
a
las
primeras
750
frases
clasificadas
para
cada
síntoma
para
construir
el
data
ser
final
cada
frase
se
consideró
positiva
por
mayor
y
votin
es
decir
si
tenemos
tres
anotadores
si
dos
de
ellos
consideran
una
frase
como
positiva
se
va
a
considerar
en
el
de
y
de
hacer
final
en
el
recurso
final
como
positiva
y
organizamos
las
frases
en
tres
grupos
frases
positivas
frases
clasificadas
como
negativas
y
frases
de
control
que
fueron
obtenidas
de
manera
random
de
rédita
al
final
el
interanotación
agreement
de
la
grime
entre
los
anotadores
fue
cercano
al
85
por
ciento
lo
que
supone
un
buen
agreement
un
buen
acuerdo
comparado
con
trabajos
similares
en
el
campo
en
esta
en
esta
tabla
muestro
las
principales
estadísticas
de
bdc
en
la
primera
en
la
primera
fila
podemos
ver
la
media
de
agreement
entre
los
entre
los
anotadores
y
podemos
ver
que
para
la
mayoría
de
ellos
está
cercana
al
80
por
ciento
o
incluso
supera
esos
80
por
ciento
en
las
últimas
tres
filas
podemos
ver
el
número
de
sentencias
positivas
para
cada
síntoma
el
número
de
sentencias
negativas
y
también
el
número
de
sentencias
de
control
aquí
cabe
destacar
que
los
expertos
anotaron
sólo
como
relevantes
el
17
por
ciento
de
las
frases
del
grupo
de
candidatas
lo
que
refleja
también
cómo
difícil
es
encontrar
evidencias
en
redes
sociales
y
cómo
difícil
es
esta
tarea
aquí
muestro
algunos
ejemplos
para
que
se
entienda
un
poco
mejor
de
frases
del
bdc
asociada
con
el
síntoma
problemas
de
sueño
en
el
primer
bloque
en
las
frases
etiquetas
como
cero
vemos
que
estas
frases
sí
que
son
semánticamente
relacionadas
con
el
síntoma
en
este
caso
problemas
de
sueño
pero
vemos
que
no
muestran
ningún
riesgo
como
por
ejemplo
la
primera
frase
que
simplemente
estoy
apostado
en
mi
cama
y
todavía
lo
siento
sin
embargo
las
frases
del
bloque
de
abajo
las
frases
relevantes
sí
que
vemos
riesgos
asociados
con
el
síntoma
por
ejemplo
la
última
fila
vemos
que
las
frases
sólo
tengo
energía
para
comer
y
dormir
una
vez
construido
el
ley
de
ser
lo
primero
que
hicimos
fue
un
análisis
a
nivel
emocional
y
a
nivel
sentimental
de
los
tres
grupos
de
frases
es
decir
el
grupo
positivo
del
grupo
negativo
y
del
grupo
de
control
para
esto
usamos
el
conjunto
de
emociones
de
prud
chik
cubiertos
en
el
emoción
lércico
en
rc
en
el
que
trata
ocho
diferentes
emociones
y
dos
sentimientos
que
es
sentimiento
positivo
y
sentimiento
negativo
y
en
esta
análisis
lo
que
hicimos
es
contar
el
número
de
frases
para
cada
uno
de
los
grupos
positivo
negativo
de
control
que
tenían
al
menos
un
término
que
ejemplificaba
cada
uno
de
los
grupos
emocionales
y
sentimentales
en
este
caso
vimos
dos
patrones
distintos
en
los
síntomas
del
bdi
en
los
síntomas
depresivos
el
primer
patrón
se
refleja
en
la
primera
fila
donde
vemos
que
para
las
sentencias
positivas
el
nivel
de
emocionalidad
y
el
nivel
de
sentimiento
mentalidad
es
mucho
mayor
que
para
otros
dos
grupos
sin
embargo
para
otros
síntomas
como
por
ejemplo
el
síntoma
de
indecisión
que
vemos
en
la
fila
abajo
esta
diferencia
no
es
tan
significativa
de
hecho
se
entiende
mucho
a
enrelazar
y
no
vemos
grandes
diferencias
de
emocionalidad
y
sentimentalidad
entre
los
grupos
de
sentimientos
a
continuación
también
elaboramos
experimentos
de
clasificación
para
evaluar
el
impacto
del
data
se
nos
centramos
experimentosen
dos
tareas
principales
una
detección
de
síntomas
una
clasificación
pura
y
dura
y
también
la
generación
generalización
de
los
modelos
hacia
síntomas
de
otras
enfermedades
para
estos
experimentos
usamos
modelos
basados
en
transformers
formulados
como
modelos
de
clasificación
más
concretamente
usamos
ver
de
mini
que
es
una
versión
un
poco
más
ligera
de
ver
m
ver
que
significa
mental
ver
que
es
un
ver
pre-entrenado
previamente
en
un
montón
de
colección
relacionadas
con
poros
de
salud
mental
en
las
redes
sociales
y
también
te
cinco
que
es
un
modelo
text
to
text
en
el
que
lo
formulamos
para
que
formó
que
escupiese
etiquetas
de
true
o
false
dependiendo
de
si
el
síntoma
la
frase
era
relevante
hacia
el
síntoma
y
por
último
para
tener
un
poquito
también
de
de
contexto
de
cómo
funcionan
bien
estos
modelos
basados
en
transformers
incluimos
feriaturas
textuales
más
específicamente
un
tefe
y
de
f
y
un
luik
que
es
basado
en
un
lexico
en
psicológico
bien
pues
viendo
la
primera
la
primera
tarea
que
se
basan
en
la
detección
de
síntomas
es
decir
la
tarea
de
los
modelos
es
determinar
si
una
frase
es
relevante
o
no
para
un
síntoma
mostran
resultados
en
esta
tabla
que
la
formulamos
tarea
como
una
clasificación
binaria
es
decir
la
sentencia
es
relevante
hacia
el
síntoma
o
no
y
es
necesario
remarcar
aquí
que
en
todos
los
experimentos
siempre
incluimos
cinco
veces
más
frases
de
control
que
positivas
ya
que
en
un
entorno
real
en
las
redes
sociales
siempre
es
más
habitual
encontrarse
sentencias
que
no
van
sobre
el
síntoma
que
positivas
viéndolef
uno
de
los
modelos
podemos
ver
que
los
modelos
basados
en
transformers
han
obtenido
un
rendimiento
mejor
que
los
basados
en
feriaturas
textuales
clásicas
más
específicamente
el
modelo
verp
entrenado
previamente
con
con
corpus
relacionado
con
mental
health
pues
vemos
que
ha
sido
el
que
ha
tenido
mayor
mayor
rendimiento
para
poner
un
poco
más
en
contra
de
los
resultados
también
muestro
aquí
las
matrices
de
confusión
para
cada
uno
de
los
modelos
y
vemos
que
los
modelos
basados
en
transformers
el
el
valor
de
true
positives
de
sentencias
que
realmente
eran
positivas
es
muy
alto
cercano
casi
siempre
al
100
por
100
y
el
valor
de
falsos
negativos
de
falsos
negativos
es
muy
pequeño
en
el
segundo
experimento
para
cenado
con
la
generalización
de
síntomas
nosotros
evaluamos
la
capacidad
de
generación
de
nuestros
modelos
entrenados
en
vez
de
isen
a
síntomas
de
otros
trastornos
para
esto
usamos
un
dita
7
externo
y
sin
que
cubre
síntomas
y
sentencias
de
otros
de
otros
de
otros
siete
diferentes
trastornos
este
día
se
publicado
en
la
conferencia
mnlp
de
2022
e
hicimos
una
evaluación
0
es
otro
esto
que
quiere
decir
pues
que
básicamente
usamos
nuestros
modelos
exclusivamente
entrenados
en
veriz
en
y
los
estemos
directamente
en
los
síntomas
de
todas
estas
enfermedades
aquí
podemos
ver
que
los
modelos
basados
en
transformers
generalizaron
muy
bien
ya
que
bien
los
síntomas
de
otras
enfermedades
que
no
habían
visto
en
proceso
de
entrenamiento
siguen
teniendo
una
precisión
bastante
alta
sin
embargo
aquí
sí
los
modelos
basados
en
criaturas
textuales
clásicas
sí
que
baja
mucho
su
rendimiento
en
la
última
fila
mostramos
la
media
de
rendimiento
por
enfermedad
y
vemos
que
como
es
lógico
el
mejor
el
mejor
rendimiento
se
obtiene
en
la
propia
enfermedad
que
es
depresión
pero
que
hay
otras
enfermedades
como
por
ejemplo
ansiedad
o
bipolar
disorder
en
la
que
vemos
que
los
rendimientos
y
la
generalización
es
bastante
buena
sin
embargo
en
el
último
en
el
último
en
la
última
enfermedad
como
es
problemas
alimenticios
vemos
que
la
precisión
es
sólo
de
la
mitad
de
nuestros
modelos
en
cuanto
a
la
media
por
cada
método
vemos
que
a
nivel
de
realización
el
método
que
mejor
funciona
fue
de
5.
Vale,
he
visto
un
poco
esto
voy
a
ver
nuestro
segundo
trabajo
en
la
que
probamos
a
usar
modelos
comerciales
es
decir
large
language
models
como
asesores
de
marcadores
psicológicos
para
ver
si
nos
podían
ayudar
en
la
notación
y
en
elproceso
de
construcción
de
data
sets
en
este
domingo.
Como
resultado
de
este
segundo
trabajo
creamos
un
nuevo
ADICASET
el
ley
de
set
de
presín
en
el
que
este
trabajo
estudiamos
como
los
lm's
pueden
ayudar
en
el
desarrollo
de
estos
modelos
de
nuevo
muestro
aquí
el
código
QR
por
si
alguien
quiere
está
interesado
en
trabajar
con
el
ley
que
se
para
tener
las
guías
de
cómo
acceder
a
ello.
En
ese
trabajo
exploramos
la
capacidad
de
los
lm's
más
específicamente
gpt4
y
chat
gpt
para
notar
datos
complejos
relacionados
con
la
salud
mental.
¿Por
qué?
Bueno
pues
porque
una
de
las
principales
ventajas
de
usar
los
lm's
es
su
capacidad
para
procesar
grandes
cantidades
de
datos
entonces
examinamos
y
exploramos
estudiamos
un
rendimiento
para
comprender
hasta
que
punto
estos
modelos
pueden
reproducir
el
comportamiento
humano
y
podrían
actuar
como
asesores
para
etiquetar
colecciones
en
este
campo.
El
de
presín
data
set
proviene
de
una
tarea
nueva
de
risk
que
básicamente
consiste
en
realizar
rankings
de
frases
indicativas
de
la
presencia
de
síntomas
crínicos
es
una
tarea
introducida
por
primera
vez
en
2023
y
de
nuevo
de
presín
al
igual
que
nuestro
recurso
anterior
abarca
todos
los
síntomas
presentes
en
el
vd2.
Las
frases
proceden
de
red
de
nuevo
y
se
organizan
una
colección
al
estilo
3
donde
había
un
conjunto
de
4
millones
de
frases
provenientes
de
más
de
3
mil
usuarios
únicos
de
red.
En
cada
participante
de
risk
cada
laboratorio
presentó
21
rankings
de
frases
ordenadas
por
elemancia
de
creciente,
es
decir
que
cada
ranking
tenía
en
la
primera
posición
del
mismo
la
frase
que
ese
método
consideraba
más
relevante
respecto
al
síntoma
y
cada
laboratorio
podía
presentar
hasta
5
variandos
es
decir
hasta
5
métodos
y
los
rankings
tenían
hasta
1.000.
Entonces
en
este
nuevo
recurso
obtuvimos
las
frases
candidatas
aprovechando
estos
métodos
teniendo
en
cuenta
solo
las
50
primeras
frases
ranqueadas
de
los
modelos
propuestos
un
punto
total
de
37
modelos
diferentes
propuestos.
De
esta
manera
la
principal
diferencia
con
el
proceso
de
recolección
de
sentencias
candidatas
respecto
a
nuestro
trabajo
anterior
es
que
venían
de
37
modelos
distintos
en
medio
de
unico
solo
y
las
frases
tendrían
mucha
más
variedad
y
sería
mucho
más
rica,
mucho
más
ricas
en
diversidad.
Aquí
de
nuevo
muestro
algunos
ejemplos
de
frases
para
el
síntoma
pérdida
de
energía,
pasa
un
poco
el
mismo
patrón
que
con
veíamos
en
BDISEN
en
las
frases
con
relevancia
a
cero
vemos
que
sí
que
semánticamente
están
relacionadas
con
el
síntoma
con
en
este
caso
pérdida
de
energía
pero
no
muestra
ningún
riesgo
por
ejemplo
aprender
nuevas
ideas
con
su
energía
pero
construye
conexiones
neuronales
en
cambio
la
sentencia
que
tiene
una
relevancia
como
uno
vemos
que
si
realmente
hay
un
riesgo
asociado
a
la
persona
que
lo
está
escribiendo
por
ejemplo
en
la
primera
frase
de
la
relevancia
uno
es
incluso
lavar
los
dientes
es
demasiado
cansado
para
mí
ahora
mismo.
En
este
nuevo
trabajo
el
proceso
de
notación
de
nuevo
el
concepto
de
relevancia
es
el
mismo
una
frase
solo
debe
considerarse
relevante
si
proporciona
información
sobre
el
estado
del
individuo
relacionado
con
el
síntoma
del
BDI2
y
en
ese
trabajo
diseñamos
guidelines
y
diseñamos
guías
para
guiar
el
proceso
de
evaluación.
Estas
guidelines
se
proporcionaron
tanto
a
los
anotadores
humanos
y
también
para
realizar
in
context
learning
de
los
LLMS
así
podríamos
hacer
una
comparación
justa
ya
que
el
conocimiento
previo
a
nivel
de
guías
de
cómo
anotar
de
los
humanos
y
los
LLMS
sería
el
mismo
y
en
ese
trabajo
seleccionamos
a
tres
evaluadores
humanos
con
diseta
formación
para
ver
cómo
podría
influir
su
conocimiento
respecto
a
la
notación
y
respecto
a
los
LLMS.
En
este
caso
usamos
un
profesional
del
clínico,
un
estudiante
predoctoral
con
conocimiento
en
el
área
y
un
postdoctoral
también
con
conocimiento
en
el
área.
En
esta
diapositiva
pues
muestro
un
poco
las
guidelines
que
básicamente
explican
el
objetivo
de
esa
tarea
el
concepto
derelevancia
y
una
frase
con
ejemplos
para
las
categorías
positivas
y
negativas
para
cada
síntoma.
Una
vez
hecho
todo
este
proceso
el
gran
tru
las
flaves
verdaderas
siempre
se
han
creado
en
base
a
las
anotaciones
de
los
humanos
nunca
de
los
LLMS
y
creamos
dos
clases
de
gran
tru
deítases
el
primero
que
llamamos
consensus
donde
las
entecias
relevantes
son
consideradas
por
los
tres
humanos
es
decir
una
frase
solo
es
considerada
relevante
si
los
tres
anotadores
la
consideran
relevante
y
de
nuevo
un
majority
voting
donde
al
menos
dos
humanos
consideran
la
sentencia
como
relevante.
Entonces
podríamos
decir
que
consensus
es
un
poco
más
estricto
a
la
hora
de
considerar
una
sentencia
relevante
y
mayor
y
es
un
poco
más
tiesi.
En
esta
diapositiva
muestro
el
número
de
sentencias
y
también
el
acuerdo
la
agreement
de
las
anotaciones
por
síntoma
si
vemos
el
primer
bloque
de
la
tabla
vemos
que
el
número
de
sentencias
está
cercano
etiquetadas
perdón
está
cercano
al
mil
para
cada
uno
de
los
síntomas
y
de
nuevo
el
número
de
sentencias
relevantes
de
todas
esas
mil
anotadas
es
muy
pequeño
en
este
caso
en
este
trabajo
puso
lo
del
11
por
ciento
lo
que
de
nuevo
refleja
cómo
difícil
son
estas
tareas
también
aquí
mostramos
el
agreement
cómo
de
acuerdo
estuvo
el
modelo
GPT4
respecto
a
los
deitas
ex
al
consensus
y
majority
aquí
sólo
mostramos
GPT4
y
no
es
GPT
porque
fue
el
que
obtuvo
mejor
rendimiento
y
vemos
que
el
porcentaje
de
acuerdo
con
los
humanos
con
los
deitas
es
bastante
bastante
alto
sobre
todo
en
el
en
el
tema
y
que
es
un
poco
más
flexible
para
la
mayoría
de
síntomas
está
superior
la
delimiento
superior
al
80
por
ciento
de
las
frases
en
los
últimos
tres
lo
que
se
la
tabla
lo
que
muestro
es
una
comparación
a
pares
entre
el
lm
gp
t4
y
cada
humano
de
manera
individual
respecto
a
los
juicios
de
los
otros
dos
humanos
entonces
aquí
podemos
ver
una
comparación
individual
entre
cada
humano
y
gp
t4
para
todos
los
casos
el
uno
a
los
humanos
siempre
han
tenido
mejor
de
acuerdo
con
los
otros
dos
humanos
con
el
resto
respecto
a
gp
t4
con
sólo
una
excepción
para
el
síntoma
pesimismo
el
gp
t4
estuvo
más
de
acuerdo
con
los
humanos
que
el
propio
estudiante
predo
en
esta
segunda
tabla
muestro
estos
valores
para
el
resto
de
síntomas
que
más
o
menos
si
en
el
mismo
patrón
y
en
la
última
columna
muestro
la
media
de
todos
los
resultados
y
viendo
la
media
entre
la
agreement
de
cada
anotador
individual
respecto
a
gp
t4
vemos
que
los
humanos
siempre
están
un
paso
por
encima
respecto
al
lm
en
esta
segunda
tabla
muestro
en
mayor
detalle
por
el
resultado
de
este
acuerdo
de
relevancia
entre
los
anotadores
humanos
y
los
osl
lm
en
este
caso
en
la
primera
fila
chat
gp
t
y
en
la
segunda
fila
gp
t4
viendo
un
poco
estos
resultados
lo
que
podemos
ver
es
que
primero
me
le
dejan
con
sensus
chat
gp
t
casi
acierta
a
obtener
todas
las
entencias
relevantes
del
corpus
de
hecho
viendo
esta
mantiene
confusión
vemos
que
acertado
a
nivel
de
relevancia
en
2358
sentencias
y
sólo
ha
dejado
pasar
no
ha
pasado
por
su
filtro
de
relevancia
113
de
ellas
y
gp
t4
pues
ha
recuperado
como
relevantes
2296
y
sólo
ha
dejado
escapar
digamos
175
el
principal
problema
de
estos
modelos
tanto
de
chat
gp
t
como
gp
t4
que
vimos
en
este
escenario
es
que
tienen
a
sobreclasificar
las
sentencias
como
relevantes
por
ejemplo
gp
t4
de
las
del
total
no
relevantes
4.755
las
etiqueto
como
relevantes
cuando
en
realidad
no
lo
era
este
patrón
se
se
ve
también
en
mayor
y
lo
que
pasa
que
mayor
tiene
este
caso
pues
hay
más
entencias
relevantes
porque
son
de
este
un
poco
más
un
poco
más
flexible
en
cuanto
a
la
comparación
entre
los
modelos
usando
una
medida
de
acuerdo
de
agreement
cogen
kappa
aquí
sí
que
vemos
un
poco
más
a
diferencia
entre
el
rendimiento
de
los
modelos
donde
gp
t4
está
un
peluño
por
encima
de
chat
gp
en
base
a
estos
resultados
y
en
base
analizando
todos
estos
agreements
pues
los
resultados
dan
pie
a
proponer
estrategias
híbridas
de
etiquetado
ya
que
los
lm
en
este
caso
son
mejoresidentificando
sentencias
marcadas
como
relevante
y
en
nuestro
escenario
podrían
actuar
como
filtro
previo
para
eliminar
sentencias
no
relevantes
del
pul
total
de
sentencias
del
conjunto
total
de
sentencias
candidatas
a
etiquetar
por
ejemplo
en
nuestro
caso
si
hubiéramos
usado
gp
t4
de
primeras
podríamos
haber
reducido
el
trabajo
humano
un
68
por
ciento
eliminando
la
necesidad
de
anotar
15
mil
sentencias
a
continuación
vuelve
a
un
poco
de
las
conclusiones
y
trabajo
futuro
que
tenemos
pensado
en
base
a
estos
dos
a
estos
dos
artículos
que
expuesto
como
conclusiones
hemos
construido
dos
recetas
de
antrados
de
síntomas
que
incluyen
flases
frases
relacionadas
con
los
21
síntomas
del
bdi
2
en
principio
en
el
primer
trabajo
por
lo
menos
por
lo
menos
bdi
sen
revelando
diferencias
lingüísticas
y
emocionales
y
la
capacidad
de
clasificación
de
estos
moderos
y
también
evaluamos
el
potencial
de
los
lm
escoma
anotadores
en
este
ámbito
obteniendo
resultados
bastante
prometedores
a
pesar
de
que
aún
queda
mucho
más
gente
mejora
para
considerarlos
y
que
no
afecten
a
la
calidad
de
las
de
las
colecciones
como
trabajo
futuro
tenemos
pensado
a
dar
nuestros
enfocas
pues
a
otros
cuestionados
de
depresión
a
otras
enfermedades
hacia
distintos
lenguajes
en
línea
con
la
con
la
filosofía
y
con
la
idea
de
somos
en
el
ep
estamos
actualmente
trabajando
en
colecciones
de
redes
sociales
y
comunidades
disponibilantes
y
también
desarrollar
modelos
text
to
text
y
lm
es
opensource
que
ofrecen
explicaciones
fíables
para
detectar
no
sólo
detectarse
también
explicar
por
qué
han
decidido
que
etiqueta
esa
frase
como
relevante
la
presencia
en
la
presencia
de
síntomas
de
presencia
y
eso
es
un
poco
todo
y
si
te
alguna
pregunta
pues
estoy
encantado
de
responder
muchas
gracias
a
sancho
por
la
presentación
la
verdad
que
bueno
súper
bien
explicado
se
nota
que
lo
tienes
muy
bien
trabajado
de
la
desis
y
tal
me
ha
encantado
y
además
me
quedo
con
con
esto
que
dices
al
final
de
los
trabajos
futuros
o
sea
que
si
podemos
ayudar
con
cualquier
cosa
aunque
sea
sólo
darle
visibilidad
a
lo
que
hagáis
yo
encantadísima
porque
ya
te
decía
al
principio
realmente
me
parecen
aplicaciones
super
importantes
no
de
del
del
pln
o
sea
que
bastante
alucinante
martínez
también
le
parece
súper
interesante
y
que
se
ha
explicado
muy
claro
no
sé
si
lo
estás
leyendo
genial
pues
nada
además
el
tiempo
perfecto
media
ahorita
nada
sin
más
ninguna
pregunta
lo
dejamos
por
aquí
ya
también
compartí
los
los
enlaces
que
compartiste
en
QR
pues
acaso
era
más
fácil
para
la
gente
así
que
muchas
gracias
gracias
(V
constitucional
哥
) | Anxo Pérez |
¿Cómo anotar corpus lingüísticos para entrenar LLMs? Marta Guerrero @IIC | #Somos600M | Ahora
todo
el
mundo,
hoy
vamos
a
hablar
de
la
creación
y
anotación
de
corpus
lingüísticos
para
el
entrenamiento
de
LLMS.
Como
sabéis,
como
parte
de
la
iniciativa
de
somos
600M,
queremos
crear
recursos
abiertos
de
profesamiento
de
lenguaje
natural
en
español
y
lenguas
oficiales
que
representen
la
diversidad
de
las
600
millones
de
personas
que
hablamos
en
español.
Para
ello
hemos
organizado
un
hackathon
y
hemos
puesto
a
vuestra
exposición
de
nuestros
recursos
para
crear
bases
de
datos
y
entrenar
LLMS.
Y
justo
hoy
vamos
a
hablar
con
Marta
Guerrero
de
efectivamente
cuáles
serán
los
trucos
o
cómo
serían
algunos
ejemplos
de
creación
de
estas
bases
de
datos.
Antes
de
comenzar
la
charla
voy
a
comentaros
muy
brevemente
otro
de
los
objetivos
que
tenemos
en
la
comunidad
y
que
de
hecho
también
está
muy
relacionado
con
la
charla
de
hoy.
Bien,
una
de
las
preguntas
más
comunes
en
el
Discord
de
somos
en
el
LP
la
verdad
es
que
recomendemos
para
ser
mejor
modelo
para
el
español.
Y
el
problema
es
que
no
sabemos
por
qué
no
tenemos
una
leaderboard
todavía.
Entonces
lo
que
necesitamos
es
una
leaderboard
abierta
de
LLMS
que
nos
permita
estandarizar
cómo
evaluamos
y
cómo
podemos
comparar
nuestros
modelos.
Ahora
mismo
lo
que
pasa
es
que
en
general
cada
equipo
tiene
su
propia
manera
de
evaluar
pero
si
queremos
medir
el
avance
de
la
I
en
español
o
en
lenguas
oficiales,
si
queremos
incentivar
una
competibilidad
sana
y
también
probar
la
variedad
de
nuestros
modelos,
lo
que
necesitamos
es
una
manera
pública
e
imparcial
de
evaluarlos.
Entonces
bueno
hemos
decidido
crear
en
comunidad
la
primera
leaderboard
abierta
de
LLMS
en
español
en
lenguas
oficiales.
¿Cómo
podéis
colaborar?
Hay
dos
opciones
o
validando
tradiciones
del
inglés
al
español
de
los
benchmarks
más
famosos
y
estamos
os
organizando
estos
esfuerzos
con
aquí
la
hi-face,
os
dejo
ahí
el
enlace
si
queréis
echarle
un
vistazo.
Y
la
otra
opción
es
si
ya
tenéis
corpus
de
evaluación
pues
los
podéis
donar
como
ha
hecho
muy
amablemente
el
equipo
de
lice
y
justo
hoy
pues
Marta
nos
va
a
explicar
un
poco
cómo
han
creado
estos
corpus.
Os
presento
a
Marta,
Marta
bienvenida,
muchísimas
gracias
por
venir.
Marta
es
la
directora
técnica
en
business
and
language
analytics
donde
se
encarga
en
el
IIC,
donde
se
encarga
de
llevar
el
grupo
de
lingüestras
computacionales
y
de
liderar
proyectos
de
procesamiento
de
lenguaje
natural
en
el
IIC
como
ya
ya
he
dicho.
Tiene
un
master
en
lingüística
general
y
es
licenciada
en
lingüística
y
filología
hispánica
por
la
Universidad
Autónoma
de
Madrid.
Desde
hace
más
de
una
década
lidera
proyectos
de
PLN
en
el
IIC
entre
los
cuales
pueden
destacarse
los
proyectos
de
clasificación
automática
de
textos,
de
detección
de
entidades
y
de
análisis
semánticos.
Además
ha
participado
en
el
desarrollo
de
Río
Oberta,
el
modelo
lenguaje
para
el
español
creado
en
el
IIC
y
también
forma
parte
de
la
Junta
Directiva
de
la
Sociedad
Española
para
el
procesamiento
de
lenguaje
natural.
O
sea
una
persona
increíble,
lingüística
computacional
increíble
para
contarnos
más
sobre
cómo
podemos
anotar
cortos
lingüísticos
para
crear
nuestros
propios
LLM.
Entonces
bueno,
sin
más
dilación
Marta,
muchísimas
gracias
de
nuevo,
bienvenida
y
comparto
todos
los
días
en
Tivoli.
Muchísimas
gracias
María
por
tus
palabras,
muchísimas
gracias
por
la
invitación,
es
un
placer
estar
aquí
y
que
bueno
pues
desde
las
distintas
partes
del
mundo
pues
podamos
compartir
nuestra
experiencia
en
la
creación
de
corpus
y
en
la
creación
de
modelos
del
lenguaje.
Voy
a
contar
el
objetivo
es
contar
bueno
pues
cómo
nosotros
hacemos
corpus,
cómo
los
diseñamos
sobre
todo,
también
voy
a
hacer
una
introducción
un
poco
breve
de
que
es
lo
que
hacemos
en
el
instituto
y
por
qué
hacemos
estos
corpus
anotados.
Bueno
en
el
Instituto
de
Ingeniería
del
Conocimiento
pues
solemos
tener
una
aproximación
muy
enfocada
a
generar
modelos
de
lenguaje
en
español,
tanto
understanding,
de
comprensión
como
generativos.
Ya
sé
que
buenopues
los
modelos
de
comprensión
no
están
tan
de
moda
pero
sí
que
son
muy
útiles
y
funcionales
para
tareas
específicas
y
muchas
veces
esas
tareas
tienen
que
ver
con
clasificación
de
contenidos,
detección
de
entidades,
incluso
detección
de
emociones
o
sentimientos,
esas
tareas
normalmente
pues
se
puede
usar
un
modelo
generativo
pero
funcionan
mejor
con
un
modelo
de
comprensión.
Nosotros
tenemos
un
modelo
generado,
entrenado
que
se
llama
Rigoberta
que
es
lo
que
veis
aquí
en
el
simbolito
de
la
guitarra
y
eso
es
nuestro
modelo
del
lenguaje
understanding
digamos
en
español.
Pues
como
como
os
he
dicho
pues
funciona
mejor
para
esas
tareas
porque
está
específicamente
diseñado
para
esto
aparte
que
los
recursos
hardware
que
necesita
son
menores
también
sin
embargo
para
hay
otras
tareas
que
necesitas
unos
modelos
más
grandes,
unos
modelos
que
tienen
que
ver
con
la
generación
del
lenguaje
y
para
eso
hemos
entrenado
un
modelo
del
lenguaje
generativo.
Ese
modelo
del
lenguaje
generativo
pues
tiene
varias
partes,
no
me
voy
a
centrar
tanto
en
explicar
este
modelo
del
lenguaje
generativo
porque
bueno
pues
ya
lo
hemos
presentado
en
otras
ocasiones
y
aquí
estamos
centrados
más
bien
en
cómo
hemos
hecho
estos
corpus
pero
sí
que
me
sirve
muy
bien
para
que
veáis
y
entendáis
un
poquito
por
qué
los
utilizamos
y
por
qué
son,
por
qué
es
tan
útil
hacerlos
con
calidad.
Nuestro
Rigochat
es
una
familia
de
modelos
específicos
para
hacer
distintas
tareas.
Estas
distintas
tareas
pues
tienen
que
ver
con
un
modelo
general
de
instrucciones
vale
y
un
modelo
más
específico
para
tareas
de
diálogo,
más
relacionados
con
lo
que
sería
un
cuestionan
serie,
no
tanto
que
le
des
una
instrucción
y
te
revuelva,
pues
por
ejemplo
le
voy
a
dar
una
instrucción
de
un
resumen,
le
voy
a
dar
una
instrucción
de
una
traducción,
no
eso
digamos
sería
el
primer
modelo
sino
el
segundo
modelo
tendría
que
ver
más
bien
con
con
esas
tareas
de
pregunta-respuesta
y
luego
pues
digamos
el
último
de
la
familia
que
sería
un
modelo
mixto
digamos
de
las
otras
dos.
En
nuestro
entrenamiento
de
Rigochat
específicamente
para
el
español
que
se
ha
entrenado
con
distintos
corpus,
muchos
de
los
corpus
disponibles
públicos
disponibles
pero
también
corpus
que
hemos
desarrollado
nosotros
específicamente
en
el
instituto.
Estos
corpus
que
hemos
diseñado
pues
tienen
una
parte
de
evaluación,
una
parte
que
utilizamos
y
reservamos
exclusivamente
para
tareas
de
validación.
En
el
caso
del
Rigochat
nuestra
versión
pues
lo
hemos
entrenado,
lo
hemos
validado
con
dos
corpus,
veis
aquí
un
corpus
de
seguros
de
cuestionan
serie
y
un
corpus
de
datos
clínicos.
En
este
caso
veis
que
en
algunos
tareas
pues
GPT4
supera
digamos
a
los
datos
obtenidos
con
Rigochat
pero
vemos
que
cuando
hablamos
de
casos
clínicos
que
son
específicos
de
un
idioma
y
además
son
textos
bastante
más
largos
nuestro
Rigochat
lo
hace
mejor.
Como
hemos
obtenido
estos
corpus
no
de
calidad
para
entrenar
nuestro
Rigochat
pues
voy
a
contar.
La
metodología
que
utilizamos
en
el
instituto
está
inspirada
en
esta
metodología
que
es
una
metodología
digamos
bastante
establecida
que
es
la
metodología
MATER.
Esta
metodología
es
digamos
bien
en
el
mundo
ángulo
sajón
de
Pusteyowski
y
otros
sobre
todo
encabezado
por
Pusteyowski
y
lo
que
bueno
representa
aquí
veis
un
poquito
en
la
imagen
0,1
o
0,2
son
como
las
distintas
fases
que
se
tienen
que
tomar.
Bueno
estas
son
fases
intuitivas
pasamos
de
modelo
de
anotación
a
la
anotación
luego
el
entrenamiento
al
testeo
de
la
evaluación
y
la
revisión.
Aquí
nuestra
pequeña
aportación
digamos
a
esta
metodología
es
que
nosotros
solemos
hacer
esto
en
iteraciones
muy
pequeñas
es
con
iteraciones
pequeñas
del
corpus,
el
corpus
lo
dividimos
en
trozos
más
pequeños
y
solemos
hacer
estas
iteraciones
con
corpus
que
todavía
se
están
anotando
es
decir
el
proceso
de
anotación
se
para
o
se
quedan
standby
y
se
intenta
continuar
el
máximo
de
las
fases.
¿Por
qué
se
hace
esto?
Porqueuna
de
las
cosas
que
pasaba
antes
o
las
personas
que
somos
ya
un
poquito
más
mayores
pues
nos
pasaba
antes
que
entrenabas
un
corpus
dividías
entre
test
y
test
entre
test
y
train
y
había
al
final
del
corpus
errores
que
te
suponían
revisar
mucha
parte
del
corpus
cuando
ya
el
proceso
estaba
muy
finalizado
y
eso
es
un
aspecto
muy
costoso
por
eso
nosotros
hemos
optamos,
os
lo
voy
a
mostrar
en
la
siguiente
diapositiva,
optamos
por
hacerlo
en
pequeños
lotes,
os
voy
a
contar.
Lo
primero
que
hacemos
cuando
nos
llega
un
corpus
es
dividirlo
en
tres
partes,
una
primera
parte
de
preanotación
y
luego
el
conjunto
de
test
y
train,
tanto
el
conjunto
de
test
como
el
conjunto
de
train
van
a
tener
distintos
bloques,
el
de
preanotación
puede
tener
distintos
bloques
dependiendo
de
la
dificultad
del
problema
pero
sobre
todo
no
es
tan
importante
estos
distintos
bloques
en
preanotación
lo
que
sí
es
muy
importante
es
que
haya
distintos
bloques
que
estos
son
como
segmentar
este
corpus
en
trocitos,
para
ir
anotando
otro
trocito
ir
anotando
otro
trocito
terminar
así
iterativamente,
que
nos
permite
esta
asociación
por
bloques
pues
nos
permite
primero
que
las
guías
de
anotación
se
van
enriqueciendo
con
las
distintas
fases
pero
al
hacer
esta
forma
iterativa
nos
permite
ir
aumentando
estas
guías
de
anotación
de
forma
interativa
en
todos
los
bloques
y
que
nos
permite
también
que
las
dos
personas
que
están
anotando
normalmente
en
el
instituto
anotan
dos
personas
pueden
ser
más
pero
mínimo
son
dos
ese
bloque
de
de
anotación
se
hace
una
fase
de
armonización
esa
fase
de
armonización
es
una
fase
digamos
que
nosotros
solemos
hacer
con
bastante
sentido
es
lo
que
nos
va
a
dar
las
dudas
lo
que
nos
va
a
permitir
aumentar
las
guías
lo
que
nos
va
a
permitir
mejorar
y
saber
si
hay
que
revisar
todo
por
lo
que
sea
pues
hay
una
confusión
grande
o
uno
de
los
dos
anotadores
no
pues
no
no
ha
tenido
no
entendido
alguno
de
los
criterios
vale
todos
estas
todo
esto
se
se
plasma
en
las
guías
de
anotación
y
no
es
hasta
el
final
de
la
anotación
que
tienes
unas
guías
definitivas
esto
a
pesar
de
que
bueno
pues
vemos
que
este
proceso
no
que
que
va
de
arriba
abajo
es
iterativo
nos
nos
nos
nos
permite
que
aunque
los
dos
anotadores
no
no
hablan
de
la
anotación
cuando
están
anotando
pero
sí
que
es
ponen
sus
dudas
al
final
de
cada
bloque
vale
creemos
que
que
esta
forma
iterativa
produce
pues
es
un
poquito
más
costoso
quiero
quiero
decir
es
un
poquito
más
costoso
en
tiempo
porque
a
veces
bueno
pues
tienes
que
terminar
un
paquete
armonizar
luego
ir
al
otro
bloque
pero
sin
embargo
te
permite
asegurar
el
éxito
y
que
el
corpus
sea
sea
tenga
mucha
calidad
alguna
vez
nos
han
dicho
de
hecho
en
personas
que
que
han
realizado
un
corpus
y
que
no
les
ha
funcionado
o
que
no
tiene
la
calidad
que
esperaban
y
y
puede
ser
debido
a
este
a
este
proceso
no
es
verdad
que
no
siempre
no
todos
los
corpus
se
armonizan
y
no
todos
los
corpus
tienen
esta
revisión
pero
si
tú
quieres
digamos
hacer
corpus
que
luego
funcionen
en
un
sistema
en
productivo
pues
digamos
asegurar
la
calidad
de
ese
corpus
es
es
muy
importante
esta
fase
de
armonización
como
os
decía
siempre
se
da
por
por
las
dos
personas
es
decir
cada
una
de
las
personas
anota
su
parte
de
forma
completamente
autónoma
independiente
si
mira
las
guías
de
anotación
pero
digamos
no
se
ponen
común
durante
el
proceso
es
hasta
el
final
de
la
anotación
de
cada
bloque
con
la
que
en
la
que
se
hace
esa
armonización
vale
una
vez
hecha
esa
armonización
donde
se
resuelven
las
dudas
se
acuerdan
nuevos
criterios
se
revisan
otros
o
también
puede
ser
que
haya
dudas
que
se
expongan
al
cliente
o
al
sponsor
de
ese
corpus
esas
dudas
pueden
ser
dudas
razonables
que
uno
de
aspectos
que
que
que
no
tengan
tanta
que
ver
con
la
lingüística
sino
con
decisiones
importantes
de
negocio
de
cómo
se
quieren
anotar
esas
etiquetas
es
al
final
de
esta
armonización
donde
vamos
a
tener
el
gol
estándar
ese
gol
estándar
será
por
ejemplo
si
el
bloque
1
tiene
150
textos
pues
ese
bloque
un
ese
gol
estándar
será
esos150
donde
ha
habido
un
consenso
y
una
armonización
se
han
resuelto
todas
las
dudas
que
pasa
con
ese
gol
estándar
que
tiene
y
la
calidad
suficiente
se
han
eliminado
sesgos
el
que
pueda
haber
al
contrastarlo
con
otra
persona
al
haberlo
armonizado
e
incluso
al
haberlo
llevado
a
a
dudas
más
de
negocio
o
unas
dudas
que
que
sean
más
allá
de
la
configuración
lingüística
cada
uno
de
los
bloques
es
va
a
ser
igual
es
decir
se
va
a
repetir
es
verdad
que
las
dudas
razonables
que
uno
tiene
en
en
el
primer
bloque
donde
las
guías
de
notación
son
realmente
pequeñas
pues
son
muchas
pero
según
se
va
avanzando
con
los
bloques
las
dudas
disminuyen
mucho
y
y
en
los
últimos
bloques
pues
pues
las
dudas
son
bastante
puntuales
cuántos
aquí
me
vais
a
preguntar
cuántos
bloques
y
cuánto
qué
tamaño
tienen
que
tener
los
goles
estándar
pues
esta
es
la
pregunta
del
millón
seguramente
y
luego
si
queréis
hablamos
un
poquito
más
de
esto
pero
nos
puedo
decir
un
tamaño
específico
de
los
corpus
va
a
depender
muchísimo
muchísimo
de
la
tarea
que
queramos
y
también
de
la
calidad
que
queramos
tener
tan
otro
aspecto
importante
es
es
el
número
de
etiquetas
pero
bueno
eso
si
queréis
lo
vemos
más
adelante
claro
no
todos
los
no
todos
los
corpus
requieren
una
revisión
por
pares
digamos
estricta
como
la
que
he
contado
no
está
revisión
donde
los
dos
anotadores
se
ponen
de
acuerdo
y
se
revisan
y
armonizan
y
básicamente
es
como
como
si
al
final
hay
una
simbiosis
completa
no
entre
los
dos
anotadores
es
como
tienen
exactamente
los
mismos
criterios
hay
tareas
que
que
no
pueden
ser
así
por
la
naturaleza
e
incluso
de
la
tarea
en
cuestión
algunas
tareas
que
que
son
un
poquito
diferentes
son
la
cuando
hace
es
un
corpus
relacionado
con
cuestión
ancerín
los
sistemas
de
preguntas
respuestas
pues
ya
sabéis
que
están
tienen
una
pregunta
y
luego
normalmente
tiene
una
respuesta
asociada
esa
pregunta
que
pueden
tener
contestos
o
no
dependiendo
si
estamos
en
un
sistema
rajo
si
estamos
en
un
cuestionante
de
digamos
más
clásico
claro
que
pasa
en
estos
en
estos
en
estos
corpus
pues
que
las
respuestas
pueden
ser
más
de
una
es
decir
pueden
ser
válidas
muchas
formas
de
redactar
esas
respuestas
y
por
lo
tanto
no
hay
una
sola
respuesta
válida
hay
muchas
respuestas
válidas
igual
tantas
como
personas
porque
no
todos
escribimos
de
la
misma
manera
sí
que
hay
ciertas
cierto
consenso
pero
no
hay
una
única
manera
de
redactar
las
respuestas
entonces
en
los
en
los
corpus
de
cuestión
ancerín
lo
que
se
suele
hacer
es
consensuar
mucho
las
preguntas
también
se
consenso
en
las
respuestas
pero
sobre
todo
tienes
que
consensuar
las
preguntas
porque
son
las
preguntas
las
que
te
van
a
dar
el
alcance
y
la
profundidad
de
cómo
va
a
funcionar
el
sistema
entonces
el
anotador
1
y
el
anotador
2
en
este
caso
van
a
hacer
un
van
a
hacer
cada
uno
su
corpus
y
sólo
se
va
a
revisar
la
anotación
del
otro
digamos
a
corregir
los
errores
pues
por
ejemplo
en
lo
que
en
el
caso
de
que
los
anotadores
tengan
muy
poca
experiencia
o
que
no
hayan
quedado
o
que
haya
dudas
expuestas
por
por
los
propios
anotadores
que
los
propios
anotadores
en
cada
uno
de
los
bloques
manifiesten
pues
que
pues
que
tienen
dudas
no
con
ciertas
preguntas
con
ciertas
terminologías
o
con
cierta
o
con
la
extensión
de
de
ciertas
cosas
que
no
se
han
apalabrado
o
se
han
pactado
previamente
no
cosas
que
van
apareciendo
ahí
sí
que
se
hace
una
armonización
y
resolución
de
dudas
pero
digamos
no
se
la
armonización
en
el
caso
de
la
redacción
de
las
de
las
respuestas
sólo
se
supervisan
pero
no
se
no
se
corrige
porque
cada
uno
pues
tenemos
una
forma
de
escribir
de
forma
distinta
así
que
no
se
puede
llegar
a
una
revisión
por
pares
de
forma
completa
como
veíamos
en
las
tareas
digamos
más
orientadas
a
las
tareas
de
comprensión
las
tan
las
tareas
que
tienen
que
ver
con
más
con
la
generación
son
más
difíciles
digamos
de
armonizar
o
consensuar
y
aquí
bueno
pues
una
de
las
partes
más
importantes
es
el
nivel
de
experiencia
sieres
una
persona
que
sueles
y
sueles
hacer
corpus
y
tienes
un
grado
de
experiencia
alto
pues
el
consensuar
las
preguntas
y
las
respuestas
te
va
a
dar
un
digamos
te
va
a
resultar
fácil
de
se
volverte
en
esta
tarea
también
pues
para
generar
los
corpus
de
cuestionan
serín
tenemos
que
tener
en
cuenta
bueno
pues
que
cuando
se
se
acuerdan
las
preguntas
pues
hay
preguntas
de
muchos
tipos
no
hay
una
tipología
de
preguntas
que
tenemos
que
recordar
una
de
las
partes
de
las
guías
digamos
de
esos
corpus
es
acordar
las
preguntas
y
la
profundidad
de
las
preguntas
puede
haber
preguntas
muy
muy
concretas
incluso
preguntas
de
sí
o
no
o
puede
haber
preguntas
muy
generalistas
incluso
ambiguas
entonces
está
está
como
como
decía
antes
digamos
esta
tipificación
de
las
preguntas
y
estás
y
este
consenso
nos
va
a
permitir
saber
hasta
dónde
queremos
abordar
las
tareas
a
lo
mejor
hay
tareas
hay
preguntas
que
eso
lo
queremos
abordar
imagínate
pues
una
una
selección
de
entre
entre
cuatro
opciones
o
hay
preguntas
abiertas
donde
tienes
que
escribir
realmente
un
fragmento
o
exponer
entonces
va
a
depender
mucho
de
la
tarea
en
cuestión
pero
tipificar
las
preguntas
es
una
de
las
partes
fundamentales
otra
parte
es
la
sinonímica
y
la
variedad
lésica
si
queremos
enseñar
al
modelo
de
el
lenguaje
que
vamos
a
utilizar
este
lenguaje
obligatoriamente
tiene
que
ser
lo
más
variado
posible
donde
donde
las
preguntas
y
las
respuestas
no
tengan
las
mismas
palabras
no
intentándose
lo
poner
difícil
al
modelo
para
que
aprenda
los
casos
más
difíciles
también
la
presencia
de
distintos
registros
a
que
se
da
mucho
y
seguro
que
muchos
pues
que
utilizáis
a
gpt
o
similar
bueno
pues
utilizáis
distintos
registros
para
preguntarle
y
en
la
mayoría
de
los
casos
os
responde
a
todos
los
registros
que
se
que
se
es
capaz
de
preguntar
eso
es
una
de
las
ventajas
que
tenemos
que
hacer
en
enseñarle
todos
los
registros
para
que
aprenda
a
contestar
todos
o
si
en
específico
queremos
que
uno
no
lo
aprenda
pues
también
enseñárselo
no
hay
muchas
maneras
de
preguntar
hay
formas
de
preguntar
de
forma
directa
de
forma
indirecta
entonces
tenemos
que
enseñarle
incluso
de
forma
condicional
se
puede
preguntar
entonces
hay
que
indicarle
todas
las
maneras
también
es
propio
de
los
chatbot
o
mucha
gente
saluda
y
se
despide
entonces
tenemos
que
ponerle
también
esta
presencia
de
saludos
y
despedidas
al
igual
que
los
errores
ortográficos
es
muy
frecuente
ya
que
es
un
lenguaje
mucho
más
espontáneo
cuando
hacemos
un
sistema
de
preguntas
respuestas
como
el
lenguaje
normalmente
suele
ser
más
más
espontáneo
pues
que
utilicemos
muchas
faltas
de
ortografía
o
errores
gramaticales
incluso
errores
de
escritura
así
que
todo
esto
tiene
que
estar
presente
en
nuestro
corpus
de
forma
equilibrada
pero
de
forma
muy
presente
porque
es
algo
que
se
va
a
dar
y
si
al
final
el
uso
va
a
ser
con
errores
de
escritura
o
faltas
de
ortografía
pues
esto
necesita
el
modelo
haberlo
visto
y
con
esto
vamos
a
digamos
la
parte
más
importante
cuando
se
diseña
un
corpus
que
es
esta
representatividad
en
los
corpus
se
diseñan
digamos
de
acuerdo
a
una
tarea
o
un
fin
específico
si
yo
quiero
hacer
una
tarea
de
cuestionancerin
para
el
sistema
de
salud
que
responda
preguntas
relacionadas
con
salud
en
la
población
pues
las
características
del
corpus
tienen
que
ser
que
que
nuestros
preguntas
y
respuestas
sean
preguntas
que
suele
hacer
la
población
y
respuestas
que
puedan
dar
por
un
médico
un
profesional
médico
o
pediatra
profesional
de
la
salud
de
las
distintas
ramas
entonces
por
ejemplo
en
este
caso
yo
estoy
pensando
en
un
dominio
escrito
en
estos
escritos
podría
ser
que
nuestro
corpus
fuera
oral
aquí
veis
en
este
rosco
que
he
puesto
más
o
menos
todas
las
partes
importantes
que
son
necesario
por
lo
menos
considerar
a
la
hora
de
diseñar
este
corpus
tenemos
que
pensar
una
de
uno
de
los
grandes
atascos
es
la
propiedad
de
los
testos
cuando
usamos
testos
por
ejemplo
de
la
wikipedia
o
testos
de
salud
o
testos
de
noticias
tenemos
que
ver
si
estos
testos
podemosusarlos
son
propietarios
no
son
propietarios
podemos
construir
nuestros
data
set
también
dependen
a
lo
mejor
del
tamaño
si
vamos
a
utilizar
conjuntos
de
datos
que
ya
tengan
una
licencia
que
podamos
usar
o
vamos
a
hacer
pues
un
por
ejemplo
un
tamaño
donde
hay
que
pedir
hay
que
pedir
permiso
para
poder
usarlo
y
en
el
caso
de
pedir
permiso
para
poder
usarlo
que
permis
que
licencia
va
a
tener
luego
el
corpus
la
propiedad
de
los
testos
y
las
licencias
están
muy
relacionados
muchas
veces
bueno
pues
los
corpus
que
están
a
nuestro
acceso
o
que
tenemos
acceso
muchas
veces
tienen
una
propiedad
de
uso
para
investigación
o
a
veces
tienen
una
propiedad
restringida
que
no
se
puede
usar
para
para
uso
comercial
depende
muchísimo
de
también
la
propiedad
de
esos
datos
a
veces
la
propiedad
de
esos
datos
te
limita
también
la
licencia
de
uso
el
tamaño
del
corpus
pues
es
una
cosa
que
hay
que
pensar
con
qué
tamaño
de
corpus
voy
a
obtener
en
el
tiempo
que
tengo
de
anotación
un
resultado
satisfactorio
el
idioma
si
voy
a
hacerlo
en
español
va
a
ser
bilingüe
por
ejemplo
va
a
ser
en
distintos
idiomas
multilingüe
o
va
a
ser
por
ejemplo
especificando
una
una
variedad
dialetal
también
podría
ser
el
dominio
temática
aquí
bueno
pues
cuando
se
presenta
2
rego
chat
he
presentado
un
corpus
de
seguros
y
un
corpus
de
salud
estas
serían
estos
serían
los
dominios
no
qué
temática
son
la
que
voy
a
elegir
para
el
fin
con
el
que
estoy
construyendo
el
corpus
y
la
dimensión
temporal
en
la
dimensión
temporal
pues
normalmente
buscamos
corpus
que
sean
actuales
no
que
tengan
que
ver
con
con
el
uso
de
la
lengua
actual
pero
puede
ser
que
nuestro
nuestra
idea
sea
hacer
un
corpus
del
español
del
siglo
18
bueno
pues
ahí
tenemos
que
pensar
dónde
vamos
a
conseguir
esos
datos
cómo
los
vamos
a
conseguir
etcétera
la
el
digamos
en
el
círculo
que
está
en
el
centro
es
la
representatividad
cada
una
de
las
decisiones
que
tomemos
tiene
que
estar
representada
en
el
corpus
y
tiene
que
ser
representativa
vale
si
si
queremos
por
ejemplo
hacer
un
corpus
de
noticias
financieras
actuales
y
también
del
ámbito
de
la
salud
tenemos
que
pensar
que
tiene
que
estar
por
ejemplo
al
50
por
ciento
y
esos
corpus
tienen
que
ser
más
o
menos
del
mismo
tamaño
imaginaos
que
que
pongo
en
el
modelo
datos
de
twitter
y
datos
de
noticias
son
muy
diferentes
en
extensión
así
que
es
muy
es
muy
fácil
que
el
modelo
saca
conclusiones
por
la
extensión
del
texto
y
no
por
las
etiquetas
que
le
vamos
a
enseñar
o
las
preguntas
que
le
estamos
enseñando
así
que
eso
hay
que
tenerlo
en
cuenta
a
la
hora
de
diseñar
la
extensión
de
los
datos
o
esas
características
del
corpus
que
sería
este
apartado
como
ha
dicho
antes
en
María
pues
en
la
presentación
y
para
construir
esa
leaderboard
en
español
que
es
una
cosa
que
que
es
muy
interesante
para
poder
evaluar
los
modelos
y
ver
y
ver
de
los
modelos
que
están
orientados
en
español
y
en
las
lenguas
oficiales
pues
cuál
es
mejor
que
arranquen
tienen
cuál
es
mejor
para
ciertas
tareas
o
para
tareas
más
específicas
y
nosotros
desde
el
instituto
hemos
donado
tres
corpus
os
voy
a
contar
un
poquito
estos
tres
corpus
que
incluyen
bueno
son
son
estos
tres
corpus
son
corpus
pensados
en
evaluación
no
tienen
corpus
de
entrenamiento
por
eso
son
unos
corpus
más
pequeños
pensados
específicamente
para
para
que
sirvan
para
evaluar
no
que
es
el
objetivo
de
estar
a
leaderboard
bueno
pues
estos
son
los
nombres
y
tienen
que
ver
con
asseguros
vale
un
este
medio
el
astratíquia
que
es
misceláneo
donde
se
incluye
la
salud
pero
también
se
incluye
pues
datos
digamos
de
más
más
generales
de
dominios
más
mezclados
con
esta
idea
de
que
de
que
los
modelos
se
midan
en
distintas
temáticas
y
el
último
que
es
un
que
es
un
corpus
de
ra
pues
es
un
corpus
misceláneo
no
donde
tiene
que
ver
pues
también
hay
turismo
atención
al
cliente
es
es
un
corpus
de
distintas
preguntas
que
respuestas
voy
a
contar
un
poquito
cómo
están
hechos
cuando
hacemos
los
corpus
de
test
bueno
pues
nosotros
hemos
acordado
las
preguntas
laextensión
de
las
preguntas
cómo
van
a
ser
estas
preguntas
y
y
por
ejemplo
el
este
corpus
de
seguros
tiene
cuatro
cuatro
apartados
donde
están
donde
se
realizan
las
preguntas
la
respuesta
digamos
simplificada
en
lenguaje
digamos
en
un
lenguaje
más
de
uso
común
pero
también
tenemos
la
respuesta
literal
en
la
respuesta
literal
es
una
es
una
respuesta
sacada
de
este
contexto
seleccionada
de
este
contexto
digamos
que
es
el
fragmento
del
contexto
donde
se
responde
a
la
pregunta
vale
y
el
contexto
es
donde
se
encuentra
la
información
vale
en
general
como
el
la
sección
o
contexto
un
poco
más
amplio
porque
bueno
porque
esto
porque
los
contextos
muchas
veces
tienen
son
son
muy
son
muy
amplios
y
no
siempre
digamos
cuando
cuando
digamos
entrenamos
un
sistema
a
veces
te
es
útil
también
encontrar
exactamente
dónde
está
la
respuesta
dentro
de
ese
contexto
vale
entonces
esas
serían
estas
dos
cajitas
y
luego
la
respuesta
digamos
en
el
lenguaje
entendible
por
así
decirlo
el
lenguaje
un
lenguaje
más
claro
más
cercano
sería
esta
segunda
segunda
columna
el
corpus
astrativ
ciudad
corpus
digamos
como
es
un
corpus
más
miscelanio
aquí
no
importa
tanto
encontrar
una
respuesta
literal
lo
que
importa
más
es
encontrar
pues
el
contexto
y
la
respuesta
entonces
este
corpus
está
organizado
con
que
se
hace
una
pregunta
se
se
responde
digamos
en
un
lenguaje
un
poquito
más
claro
y
luego
se
encuentra
el
contexto
estos
contextos
como
veis
en
todos
pone
sigue
porque
es
imposible
que
me
quepa
aquí
en
esta
diapositiva
todos
los
contextos
pero
bueno
como
lo
podéis
consultar
en
hangin
face
no
todos
los
corpus
pues
podéis
digamos
consultar
todos
los
contextos
y
lo
amplios
que
son
vale
el
sentido
es
sentido
de
este
contexto
es
que
él
que
digamos
encontremos
la
respuesta
a
esta
pregunta
en
este
contexto
que
es
amplio
no
es
digamos
toda
la
documentación
pero
sí
que
que
es
un
respaldo
un
contexto
amplio
otra
de
las
cosas
que
cuando
diseñamos
un
corpus
y
por
eso
he
puesto
este
ejemplo
es
que
muchas
veces
una
de
las
cosas
que
resulta
más
difícil
pero
que
es
una
cosa
crucial
es
es
hacer
preguntas
que
no
tengan
respuesta
en
los
contextos
o
en
la
documentación
que
tenemos
esa
parte
es
crucial
para
para
y
nos
sirve
como
testeo
de
cómo
lo
bien
de
cómo
debiendo
hacer
el
sistema
entonces
aquí
pues
tenemos
estas
preguntas
en
concreto
esta
pregunta
que
veis
no
tiene
respuesta
entre
la
documentación
que
le
hemos
dado
vale
entonces
aquí
lo
que
ponemos
es
que
esta
pregunta
esta
respuesta
no
está
vale
esto
es
muy
importante
dárselo
y
cuando
diseñamos
el
el
corpus
indiscutiblemente
se
tienen
que
hacer
en
preguntas
en
respuesta
vale
por
por
último
pues
os
quería
contar
este
corpus
del
raj
miselánio
este
corpus
está
pensado
para
preguntas
que
tienen
más
de
un
contexto
es
decir
los
otros
dos
corpus
que
hemos
visto
pues
normalmente
se
res
o
sea
la
respuesta
la
tenemos
en
un
solo
contexto
encontramos
el
contexto
y
encontramos
la
respuesta
pero
a
veces
hay
que
componer
la
respuesta
de
distintos
contextos
y
esto
es
una
tarea
mucho
más
difícil
así
que
este
este
corpus
está
pensado
para
que
tengamos
una
pregunta
una
respuesta
varios
contextos
pueden
ser
uno
pueden
ser
varios
no
son
varios
y
y
como
es
un
corpus
digamos
que
tiene
enlaces
que
tiene
está
está
relacionado
pues
con
información
que
tienes
en
internet
también
tienes
los
enlaces
donde
está
la
información
de
esos
contextos
de
tal
manera
que
tú
puedes
digamos
ver
dónde
está
esa
información
y
verificar
así
que
este
corpus
es
un
corpus
mucho
más
difícil
vale
mucho
más
difícil
de
elaborar
y
mucho
más
difícil
digamos
de
que
los
los
sistemas
tengan
a
cierto
porque
no
sólo
tienen
que
responder
a
la
pregunta
sino
que
tienen
que
componer
que
componerla
basándose
en
distintos
contextos
que
a
veces
un
5
pueden
ser
10
una
de
las
cosas
que
es
importante
también
que
vais
a
ver
en
en
en
este
corpus
es
que
tenemos
ejemplos
de
preguntas
realizadas
de
distintas
maneras
vale
en
eso
que
os
decíamos
de
bueno
pues
queal
final
las
preguntas
tienen
que
ser
variadas
y
de
distintas
maneras
pues
ahí
vais
a
poder
ver
ejemplos
de
distintas
maneras
de
la
hora
estas
preguntas
y
yo
no
sé
si
me
ha
extendido
mucho
o
no
pero
maría
aquí
estoy
además
como
bueno
también
me
ha
encantado
que
hayas
hecho
como
también
mucho
encapié
en
eso
en
la
diversidad
de
los
datos
y
en
las
diferentes
características
que
tienen
que
tener
para
que
sean
bueno
realmente
para
que
sean
de
buena
calidad
que
también
es
algo
que
intentamos
impulsar
mucho
en
el
hackathon
bueno
yo
hablo
pero
si
tenéis
preguntas
podéis
ir
las
escribiendo
en
el
chat
y
ahora
se
las
leo
vale
porque
tarda
un
poquito
en
que
las
reciban
y
también
me
parece
muy
interesante
toda
la
parte
de
cómo
las
diferentes
realmente
entre
anotar
un
corpus
de
tareas
de
comprensión
que
son
a
las
que
estábamos
acostumbrados
más
antes
y
ahora
cómo
se
cambia
al
tener
preguntas
que
son
mucho
más
abiertas
que
también
bueno
también
a
la
parte
de
evaluaciones
mucho
más
complicado
pero
también
anotar
pues
bueno
crear
esos
corpus
también
es
como
mucho
más
más
complejo
entonces
bueno
muchas
gracias
por
la
presentación
la
verdad
gracias
a
ti
bueno
de
momento
tenemos
una
pregunta
que
es
de
leonardo
dice
bueno
primero
que
genial
la
charla
y
que
le
queda
una
duda
mira
te
la
pongo
por
aquí
sobre
los
errores
ortográficos
en
el
entrenamiento
vale
debemos
intentar
que
no
estén
en
los
datos
pero
después
claro
el
modelo
al
entrenar
no
los
va
a
ver
entonces
como
tiene
o
sea
que
el
pato
tiene
eso
después
en
el
modelo
resultante
no
haber
nuestra
nosotros
entrenamos
con
errores
porque
creemos
que
el
corpus
debe
tener
errores
si
al
final
por
ejemplo
estamos
entrenando
un
sistema
de
pregunta
respuesta
o
un
graph
normalmente
tiene
errores
que
no
escribe
con
errores
nadie
escribe
con
el
todo
se
escribimos
con
errores
yo
tenía
un
cateatrático
en
la
facultad
que
decía
es
que
yo
escribo
con
faltas
de
ortografía
y
pensaba
bueno
pues
ya
está
si
él
escribe
con
la
ortografía
todos
podemos
escribir
con
falta
de
ortografía
y
es
una
realidad
que
tenemos
en
los
datos
y
creo
que
al
modelo
hay
que
enseñárselo
así
que
nosotros
favorecemos
bueno
a
lo
mejor
no
depende
no
si
estamos
pensando
en
que
esto
vaya
un
sistema
en
productivo
en
una
empresa
pues
a
lo
mejor
no
se
puede
escribir
con
faltas
pero
si
va
a
ser
de
uso
popular
pues
las
faltas
las
notas
en
las
preguntas
van
a
estar
pues
muy
bien
pues
ahí
tienes
tu
tu
respuesta
Leonardo
si
que
tienes
que
entrenar
con
con
errores
a
poder
ser
yo
ahora
mientras
aclarísimo
la
respuesta
te
dije
yo
quería
hacerte
una
pregunta
que
has
hecho
bueno
que
también
propusiste
un
poco
ahí
y
también
he
escuchado
en
los
canales
de
los
equipos
y
es
cuando
sabes
que
ya
tienes
suficientes
datos
en
el
sentido
entonces
bueno
sobre
eso
el
número
de
etiquetas
también
si
puedes
comentar
un
poco
más
que
lo
que
sería
muy
interesante
a
ver
no
hay
un
número
no
hay
no
se
puede
dar
un
número
pero
es
verdad
que
que
podemos
pensar
que
con
pocos
miles
o
incluso
mil
ejemplos
podría
ser
suficiente
claro
no
va
a
ser
a
lo
mejor
no
va
a
ser
suficiente
para
todas
las
tareas
ni
para
ni
para
la
precisión
dependiendo
de
los
usos
y
de
la
complejidad
pero
pero
sí
que
es
verdad
que
muchas
veces
pensamos
en
datos
masivos
no
de
cientos
de
miles
de
ejemplos
y
esos
datos
muchas
veces
tienen
muchos
errores
y
poca
calidad
entonces
muchas
veces
es
mejor
hacer
un
data
set
de
mil
ejemplos
bien
hecho
que
tener
10.000
datos
semiautomáticos
parcialmente
revisado.
Buena
notación
mejor
calidad
cantidad
creo
que
también
es
una
idea
bastante
recurrente
en
las
en
las
charlas
que
estamos
viendo
estos
días
y
para
elegir
las
etiquetas
por
ejemplo
también
es
una
duda
que
me
surgía
a
mí
que
bueno
de
hecho
te
pregunte
a
la
hora
de
elegir
cómo
anotar
o
qué
pedirles
de
información
a
los
equipos
sobre
los
cuerpos
de
instrucciones
que
están
creando
entonces
cuando
sabemos
que
está
bien
y
que
no
tenemos
que
pedir
muchísima
más
información
que
a
mí
eso
lo
tengo
quepasar
pues
ajustar
esto
tiene
que
ver
con
con
esta
definición
del
alcance
que
hayamos
tomado
es
decir
por
ejemplo
si
le
estamos
estamos
haciendo
un
corpus
de
instrucción
para
generar
resumiones.
Resumiones
de
qué
de
prensa
vale
porque
si
genero
resumiones
de
sentencias
judiciales
seguramente
pues
tenga
que
tener
más
que
empresa
porque
es
un
ámbito
mucho
más
difícil
y
además
la
extensión
de
los
documentos
es
bueno
las
sentencias
judiciales
tienen
pues
mucha
distancia
unas
de
otras
no
pero
son
documentos
todos
muy
largos
con
un
lenguaje
muy
específico
con
un
dominio
muy
específico
entonces
cuando
el
tamaño
del
corpus
y
las
etiquetas
te
lo
va
a
dar
el
alcance
o
sea
cuál
es
mi
objetivo
eso
es
digamos
que
sé
que
es
lo
más
difícil
de
pensar
pero
es
lo
que
te
da
clave
para
el
resto
de
las
cosas.
Vale
genial
muchas
gracias
por
la
respuesta
así
que
es
realmente
es
complicado
y
de
aquí
te
quiero
trasladar
otra
pregunta
que
leí
en
la
comunidad
y
era
de
una
una
mujer
que
es
lingüista
computacional
y
le
interesaba
toda
la
parte
esta
de
empezar
a
anotar
corpus
y
sé
que
se
está
metiendo
perdón
es
lingüista
y
se
está
intentando
empezando
a
meter
en
este
el
campo
de
la
lingüista
computacional
y
me
preguntaba
qué
herramientas
existen
para
anotar
corpus
yo
obviamente
en
la
comunidad
siempre
utilizamos
argila
porque
es
open
source
está
integrado
con
con
el
ecosistema
de
high
in
face
pero
si
tienes
otras
recomendaciones
encantada.
Pues
a
ver
hay
una
herramienta
muy
muy
clásica
de
anotación
de
corpus
digamos
understanding
que
es
Brad
que
digamos
una
herramienta
que
en
la
comunidad
se
utiliza
mucho
también
es
open
source
entonces
a
mí
no
es
la
que
más
me
gusta
pero
sí
que
se
utiliza
mucho.
Nosotros
en
el
instituto
usamos
prodigy
que
es
una
herramienta
digamos
de
pago
pero
pero
te
da
muchas
ventajas
a
la
hora
de
armonizar
porque
siempre
es
digamos
mucho
más
difícil
y
las
herramientas
no
están
normalmente
preparadas
para
esto
pero
con
con
muchas
veces
con
los
sistemas
digamos
de
cuestión
ancerin
o
incluso
para
generar
respuestas
o
resúmenes
a
veces
no
hay
unas
herramientas
que
te
permitan
digamos
fácilmente
hacer
los
procesos
de
revisión
de
automatización
entonces
pues
a
veces
usamos
otras
herramientas
incluso
un
excel
porque
muchas
veces
es
más
fácil
que
sobre
todo
por
los
procesos
de
revisión
no
tanto
por
el
anotado
sino
la
revisión
aquí
es
la
clave
para
elegir
una
herramienta.
Muchas
gracias
tenemos
otra
pregunta
de
alguien
que
se
ha
unido
un
poquito
tarde
que
no
sabes
si
lo
explicaste
después
o
antes
perdón
que
se
debe
considerar
para
hacer
un
corpus
así
que
lo
hablaste
de
varias
características
pero
este
justo
es
un
equipo
de
jacatón
que
están
creando
un
data
center
de
cocinas
y
te
pregunta
tu
opinión
sobre
qué
no
debe
faltar.
Pues
yo
creo
que
no
debe
faltar
en
recetas
de
cocina
y
los
postres.
No
te
acuerdo.
No
pues
creo
que
debería
ser
pues
no
sé
cuántos
por
ejemplo
cuál
es
vuestro
alcance
pero
siempre
tenemos
que
pensar
en
que
sea
muy
variado
o
sea
nuestro
casi
siempre
yo
lo
digo
ante
la
duda
que
sea
lo
más
variado
posible
es
decir
pues
imagínate
que
tenga
guiso
es
que
tenga
arroz
es
no
sé
que
tenga
los
cosas
de
horno
no
sé
si
me
ocurre
pero
siempre
sea
lo
más
variado
posible.
Igual
también
lo
recomiendo
también.
Sí
porque
eso
al
final
los
modelos
lo
que
vamos
a
enseñarles
a
hacer
bien
una
tarea
pero
enseñémosle
a
hacer
la
tarea
lo
más
lo
más
difícil
de
entrada
posible
porque
al
final
luego
la
cuando
le
metes
estos
nuevos
y
distintos
a
los
que
ha
visto
siempre
la
realidad
es
otra
así
que
lo
más
variado
posible.
Vale
genial
muchas
gracias.
No
sé
si
queda
alguna
pregunta
si
queda
una
pregunta
es
nuestra
oportunidad
y
si
no
Marta
no
sé
si
quieres
hacer
alguna
anotación
final
o
algo
que
te
gustaría
añadir.
Pues
no
había
pensado
nada
pero
sí
que
para
la
anotación
de
corpus
tenemos
una
metodología
que
se
puede
consultar
en
digamos
en
la
web
y
eso
puede
puede
ayudarte
a
resolver
muchas
veces
cómo
lo
hago
como
diseño
igual
puedeservir
para
el
hackathon
también
estaba
pensando
por
lo
menos
por
ejemplo
pues
cómo
hago
esta
distribución
de
lotes
cómo
lo
voy
anotando
poco
a
poco
todo
eso
sí
que
lo
contamos
y
yo
creo
que
puede
ser
útil.
Si
la
tenéis
publicada
en
la
página
web
me
la
pases
después
y
la
comparto
la
comparto
en
los
comentarios
del
vídeo
por
si
alguien
lo
ven
diferido
pero
también
lo
comparto
con
la
comunidad
en
Discord.
Fenomenal.
Muy
buena
adición.
Genial
pues
muchísimas
gracias
Marta
como
siempre
un
placer
súper
útil
súper
bien
explicada
a
la
charla
y
nada
seguimos
en
contacto
porque
vamos
a
crear
esta
líder
bueno
a
ver
cuando
la
publicamos
ya
os
vais
a
enterar
todo
el
mundo
se
va
a
enterar.
Muy
bien
muchísimas
gracias
María
un
placer
como
siempre.
Un
buen
abrazo
a
todos.
Hasta
luego. | Marta Guerrero |
Taller: Escritura de abstracts, presenta tu proyecto a LatinX in NLP @NAACL, Diana Galván #Somos600M | Hola
a
todos,
llegamos
a
la
recta
final
del
hackathon
somos
600M
y
queremos
ayudarlos
a
darle
los
últimos
retoques
a
vuestros
maravillosos
proyectos.
Como
sabéis,
el
objetivo
de
la
iniciativa
somos
600M
es
crear
recursos
abiertos
y
diversos
de
procedimiento
de
lenguaje
natural
en
español
y
lenguas
cooficiales.
Lo
que
queremos
hacer
es
representar
toda
la
diversidad
y
riqueza
de
las
personas
que
hablamos
español
en
los
sistemas
de
IA.
Realmente,
además
de
impulsar
la
creación
de
estos
proyectos
abiertos
y
con
bastante
impacto
social,
lo
que
queremos
es
intentar
que
ayudaros
que
tengan
la
mayor
visibilidad
posible.
Entonces,
por
eso
colaboramos
con
LatinxCNLI
para
ayudarlos
a
presentar
vuestros
proyectos
a
su
workshop
LatinxCNLP
de
la
conferencia
NA/CLE
de
este
año.
Este
año
el
llamado
importante
es
para
toda
la
comunidad,
independientemente
de
si
participáis
en
el
hackathon.
Hoy
tengo
aquí
conmigo
Diana
Galvanzosa,
que
es
chair
del
workshop
LatinxCNLP
de
la
NA/CLE
y
research
associate
en
Cambridge
University.
El
objetivo
del
taller
es
que
os
ayude
a
presentar
vuestros
proyectos,
os
cuento
sugerencias,
preguntarle
todas
las
dudas
que
os
surjan
y
que
conseguamos
presentar
al
workshop
buenos
proyectos.
Bienvenida
Diana,
muchísimas
gracias
por
ofrecerte
a
impartir
este
taller
y
todo
esto
es
tuyo,
puedes
empezar
a
compartir.
Y
una
nota
para
todas
las
personas
asistentes,
podéis
compartir
desde
ya
preguntas
que
os
vayan
surgiendo
sobre
cómo
presentar
vuestros
proyectos
o
sobre
lo
que
vaya
presentando
Diana
y
yo
se
las
leeré,
¿vale?
Vale,
ahora
sí.
Muchas
gracias,
déjame,
debo
de
poder
poner
esto
en
presentación.
¿Alguien
me
puede
confirmar
si
se
ven
bien
las
diapositivas?
Sí,
sí.
¿A
qué
solo
te
puedo
ver
a
ti
de
hecho?
¿Pues
listo?
No
sé,
no
puedo
ver
a
la
gente.
No
sé
si...
O
sea,
sí
que
puedes,
si
eso
leer
comentarios,
si
comentan,
o
sea
que
anima
todo
el
mundo
va
a
comentar,
me
ves
a
mí.
Pero
yo
confirmo
que
sí
que
se
ve.
Ah
bueno,
ok,
perfecto.
Entonces
pues
vamos
a
ir
empezando,
una
aclaración,
si
tienen
preguntas,
siéntanse
con
la
libertad
de
interrumpirme.
No
sé
si
pueden
ustedes
hablar
directamente,
a
lo
mejor
hacer
la
pregunta
en
el
chat.
Así
es
cómo
funciona,
María.
Sí,
efectivamente.
Oden
seguir
en
YouTube
en
el
chat
y
nos
aparecen
aquí
esas
preguntas
si
que
las
puedes
ver
y
si
no
te
las
leo
yo,
¿vale?
Perfecto,
bueno
pues,
María
me
va
a
estar
ayudando
a
estar
al
pendiente
de
las
preguntas.
Y
pues
bueno,
vamos
a
comenzar.
Bueno,
muchas
gracias
por
hostiar
este
evento.
Nosotros
en
LatinXNDI
tenemos
un
objetivo
muy
similares
al
de
la
comunidad
de
Somos
en
el
Pi.
Y
iniciativas
como
el
Hackathon
definitivamente
son
cosas
muy
importantes
para
nuestra
comunidad.
Y
bueno,
nosotros
también
entendemos
que
a
lo
mejor
muchos
de
ustedes
son
nuevos
en
el
procedimiento
del
lenguaje
natural.
Y
escribir
un
texto
científico
también
a
lo
mejor
es
algo
muy
nuevo.
Y
la
intención
de
este
tutorial,
de
este
taller,
es
orientarlos
un
poquito
de
cómo
pueden
transformar
el
trabajo
que
ya
hicieron,
el
esfuerzo
que
han
venido
haciendo
para
divulgarlo
en
una
conferencia
internacional
como
es
la
NACL.
Bueno,
en
general,
para
los
que
no
conozcan
a
LatinXNDI
en
resumen,
es
una
comunidad
global
de
profesionales
en
inteligencia
artificial.
¿Qué
se
identifiquen
como
latinoamericanos?
De
nuevo,
tenemos
personas
también
de
España,
por
supuesto.
El
término
LatinX
es
un
término
en
el
que
no
quiero
entrar
en
debate.
Nosotros
simplemente
se
utiliza
como
un
término
genérico
para
todas
las
personas
que
sean
no
solamente
de
habla
hispana.
Recordemos
que
en
latinoamérica
también
tenemos
personas
que
hablan
portugués
o
incluso
tenemos
algunas
lenguas
indígenas.
La
inteligencia
artificial,
sabemos
que
no
nada
más
es
el
procedimiento
del
lenguaje
natural.
Tenemos
robótica.
Tenemos
Computer
Vision,
en
general
Data
Science,
Machine
Learning.
Cualquier
persona
que
trabaje
en
cualquier
área
de
la
inteligencia
artificial,
laintención
es
crear
comunidad,
crear
un
espacio
en
donde
podamos
compartir
y
conocernos
entre
nosotros.
A
veces,
lo
que
se
necesita
es
acceso
a
recursos,
mentorías,
y
la
intención
de
la
LatinXNDI
es
dar
ese
apoyo
que
nosotros
necesitamos.
En
el
sitio
web
pueden
encontrar
más
información.
Nada
más
es
una
pequeña
introducción
de
que
somos
como
comunidad.
En
general,
lo
mejor
ustedes
son
nuevos
en
el
área.
Que
es
NACL?
Lo
mejor
lo
hemos
venido
mencionando
en
el
banner,
pero
yo
cuando
inicié
eso
tampoco
tenía
mucho
significado
para
mí.
Es
el
capítulo
norteamericano
de
la
asociación
de
la
Linguística
Computacional
por
sus
siglas
en
inglés.
Es
North
American
Chapter
of
Association
for
Computational
Linguistics.
Lo
único
que
ustedes
necesitan
saber
es
que,
punto
número
uno,
nosotros,
particularmente
en
NLP,
Procesamiento
de
la
Lenguaje
Natural,
publicamos
mayoritariamente
en
conferencias,
no
tanto
en
journals,
y
la
conferencia
en
donde
mayormente
publicamos
es
en
ACL.
ACL
se
divide
en
capítulos.
Tenemos
el
capítulo
norteamericano.
Por
ejemplo,
recién
esta
semana
fue
la
conferencia
del
capítulo
europeo
y
también
hay
un
capítulo
de
Asia.
Es
una
conferencia
internacional.
Muchos
de
los
avances
importantes
se
han
publicado
en
estas
conferencias.
Para
que
se
den
una
idea
de
por
qué
es
importante
que
nuestro
workshop
esté
co-locado
con
esta
conferencia.
Y
todavía
más
importante
y
de
extrema
relevancia
para
nuestra
comunidad
es
que,
por
primera
vez,
se
va
a
realizar
en
México.
Anteriormente,
cuando
se
trataba
del
capítulo
norteamericano,
los
hosts
eran
o
Canadá
o
Estados
Unidos.
Y,
bueno,
a
pesar
de
que
México
es
parte
de
Norteamerica,
nosotros
no
éramos
muy
considerados.
Entonces,
el
hecho
de
que
de
la
conferencia
esta
vez
va
a
ser
en
México
es
un
hecho
muy
importante.
Y,
bueno,
como
comunidad,
como
latinoamericanos,
como
mis
panorablantes,
queremos
aprovechar
y
mostrar
que
estamos
presentes
y
que
somos
capaces
de
hacer
trabajos
de
calidad.
Y,
bueno,
nosotros
vamos
a
organizar
un
workshop.
Las
fechas
de
la
conferencia
principal
de
NACL
es
de
junio
16
de
junio
al
21.
Pero
el
workshop
solamente
está
considerado
para
un
día.
La
fecha
que
nosotros
estamos
anunciando,
que
fue
la
fecha
que
solicitamos,
es
el
16
de
junio.
Desafortunadamente,
eso
no
está
mucho
dentro
de
nuestro
control.
Depende
de
la
logística
de
la
conferencia
principal.
Es
posible
que
sea
el
16
de
junio
o
puede
que
sea
en
alguno
de
los
últimos
dos
días,
que
es
el
20
o
el
21,
que
son
los
días
que
suelen
estar
reservados
para
workshops.
Entonces,
en
cuanto
tengamos
la
fecha
confirmada,
lo
vamos
a
poner
en
nuestro
sitio,
para
que
lo
tengan
en
mente.
Y,
bueno,
hay
distintas
maneras
de
participar
en
el
workshop.
Yo
las
listé
todas,
aunque
hoy
me
voy
a
enfocar
especialmente
en
una.
Pero
lo
pongo
como
referencia
para
futuros
eventos.
Una
manera
de
participar,
ustedes
pueden
ser
parte
del
comité
organizador.
Generalmente,
hay
una
llamada
para
ver
quiénes
están
interesados
en
ser
parte
del
comité.
En
este
momento,
esas
aplicaciones
están
cerradas.
También
se
puede
colaborar
siendo
parte
del
equipo
de
revisores.
Vamos
a
hablar
un
poquito
más
de
qué
es
un
revisor
más
adelante.
También
pueden
ser
voluntarios.
Un
workshop
requiere
mucho
trabajo.
Cualquier
ayuda
es
bienvenida.
Entonces,
también
es
una
manera
de
colaborar.
La
principal
es
mandando
un
trabajo.
A
pesar
de
que
hay
muchas
personas
participando
en
un
workshop,
definitivamente
los
protagonistas
no
solamente
en
este
workshop,
en
cualquier
workshop,
siempre
son
los
autores,
la
gente
que
manda
trabajos.
Hoy
yo
los
quiero
motivar
a
que
participen
mandando
un
trabajo.
Quiero
mencionar
algunos
de
los
beneficios
de
si
participan,
sobre
todo
si
es
la
primera
vez
en
general,
de
participar
en
un
workshop.
El
punto
número
uno,
María
habló
un
poquito
de
esto,
es
el
tema
de
la
exposición
y
de
la
divulgación
de
sus
proyectos.
De
nuevo,
nada
más
es
de
manera
local,
a
lo
mejor
conhispano
hablantes.
Una
de
las
ventajas
de
que
estemos
colocados
con
una
conferencia
internacional
y
de
nuevo,
una
de
las
conferencias
más
importantes
de
nuestra
área,
es
que
otras
personas
pueden
acudir
al
workshop.
Un
workshop
no
está
cerrado
a
la
participación
de
los
otros
miembros.
Aunque
la
idea
del
workshop
es
crear
un
espacio
donde
nosotros
seamos
los
protagonistas,
al
final
la
ciencia
se
trata
de
colaboración,
de
discusión.
Entonces,
todos
los
demás
miembros
de
NACOL
están
invitados
a
participar
y
muy
probablemente
vayan
a
estar
ahí.
Entonces,
es
una
excelente
oportunidad
para
que
ustedes
hablen
con
otras
personas.
El
tema
de
la
diversidad,
a
lo
mejor
ustedes
habrán
dado
cuenta
o
no
les
sorprenderá
saber
que
la
mayor
parte
de
desarrollo
de
investigación
se
ha
hecho
en
el
idioma
inglés,
pero
el
inglés
no
es
el
único
idioma
en
este
planeta.
Nosotros
estamos
particularmente
interesados
en
el
idioma
español,
pero
de
nuevo,
Latinoamérica
en
particular
no
nada
más
tiene
el
español.
Y
el
español
como
tal
es
un
idioma
muy
diverso.
Tenemos
el
español
de
México,
tenemos
el
español
de
Argentina,
tenemos
el
español
de
España,
que
a
lo
mejor
para
nosotros
es
muy
obvio
cómo
pueden
ser
muy
similares
gramáticamente,
pero
a
la
vez
pueden
ser
muy
diferentes.
Y
bueno,
la
única
manera
de
promover
diversidad
en
la
comunidad
de
NLP
es
creando
trabajos
que
se
enfoquen
en
otros
idiomas.
Entonces,
ustedes
estarían
contribuyendo
con
esa
parte
que
definitivamente
es
muy
importante.
Y
bueno,
algo
que
estamos
muy
felices
de
anunciar.
Hay
otra
conferencia
que
se
llama
KIPU,
es
una
conferencia
en
general
de
Inteligencia
Artificial.
Y
la
gente
de
KIPU
nos
ofreció
dos
becas
para
que
puedan
asistir
a
la
siguiente
edición,
la
del
2025,
que
está
planeada,
si
mal
no
recuerdo,
para
marzo
en
Chile.
Estas
dos
becas
se
van
a
asignar
para
los
dos
mejores
papers.
Espero
que
hasta
ahorita
con
estos
puntos
se
sientan
un
poco
más
motivados
para
mandar
sus
trabajos.
En
cuestión
de
ayuda,
nosotros
como
comunidad
en
LatinXNAI
en
que
ofrecemos
apoyarlos,
el
punto
número
1
y
algo
que
creo
que
destaca,
que
nos
hace
diferentes
a
otros
workshops
de
nuevo.
Hay
un
dominio
del
idioma
inglés
en
nuestra
comunidad.
Y
nosotros
parte
de
reconocer
la
diversidad
de
nuestra
comunidad
es
no
forzar
que
los
trabajos
estén
en
inglés,
pero
al
haber,
reconocemos
que
bueno,
la
comunidad
funciona,
sino
la
comunidad
internacional
espera
trabajos
en
inglés.
Y
si
ustedes
necesitan
o
quieren,
después
seguir
trabajando
en
sus
proyectos
y
poder
mandarlo
a
la
conferencia
principal,
a
una
conferencia
de
la
ACL,
van
a
necesitar
que
estén
en
inglés.
Nosotros
por
eso
ofrecemos
apoyarlos
con
la
traducción,
ya
sea
del
español
al
inglés
o
del
portugués
al
inglés.
En
la
parte
económica,
bueno,
este
par
assistido
a
la
conferencia,
hago
el
énfasis
de
que
es
un
autor
por
equipo.
Me
encantaría
poder
apoyar
a
todos
los
autores.
Punto
número
1,
generalmente
uno
de
los
autores
presenta.
Y
bueno,
en
la
otra
limitante
es
el
recurso
económico,
que
aunque
tenemos
sponsors,
desafortunadamente
nuestro,
el
budget
es
limitado,
pero
bueno,
lo
que
tratamos
de
cubrir
siempre
es
el
transporte,
el
hospedaje
y
las
comidas.
En
este
caso
en
particular,
aunque
ustedes
participen
en
el
workshop,
la
conferencia
nos
pide
que
también
se
registren.
Nosotros
no
pedimos
registro,
participar
en
el
workshop
es
gratis,
pero
se
necesita
registrar
a
la
conferencia
principal,
a
NACOM.
Entonces,
esos
son
básicamente
los
gastos
que
hay
que
considerar.
De
nuevo
nosotros
hacemos
todo
el
esfuerzo
por
cubrir
el
100%
de
todos
estos
gastos,
dependiendo
del
número
de
trabajos
que
recibamos
y
que
aceptemos,
tendremos
la
posibilidad
de
cubrir
el
100%,
o
bueno,
al
menos
siempre
tratamos,
no
sé,
yo
creo
que
sin
mal
nos
ha
ido,
hemos
cubierto
la
mitad,
pero
sin
mal
no
recuerdo
de
la
vez
pasada,
tuvimos
la
oportunidad
de
cubrir
casi
el
100%
de
todas
las
personas
que
asistieron
en
persona.
Entonces,
bueno,
eso
es
otra
ayuda
que
viene
en
nuestraparte.
Bueno,
en
general,
¿cómo
funciona
la
recepción
y
la
revisión
de
trabajos?
Esto
es
muy
resumido,
vienen
más
detalles
en
nuestro
sitio
web,
pues
bueno,
por
supuesto
el
paso
número
uno
sería
preparar
lo
que
nosotros
llamamos
un
extended
abstract,
voy
a
dar
más
detalles
de
qué
es
un
extended
abstract
en
las
siguientes
diapositivas,
el
formato
de
SNPDF,
es
muy
importante
que
cuando
manden
sus
trabajos
no
pongan
sus
nombres,
porque
tiene
que
ser
anónimo,
está
relacionado
con
el
punto
número
dos,
cuando
se
registren
en
el
CMT
de
Microsoft,
van
a
pedir
sus
detalles,
porque
al
final
necesitan
crear
una
cuenta,
pero
el
texto
en
sí
no
debe
de
tener
nombres,
entonces
tengan
cuidado,
no
nada
más
de
que
dentro
del
texto
vengan
sus
nombres,
a
veces
hay
gente
que
incluso
en
el
nombre
del
archivo
ponen
apellidos
o
ponen
nombres,
entonces
por
favor
tengan
mucho
cuidado
con
esos
detalles.
Hay
templates,
algo
que
se
usa
mucho
en
ciencia
es
latex,
o
también
hay
un
template
de
Word,
creo
que
nosotros
en
el
sitio
del
workshop
nada
más
pusimos
la
liga
al
de
latex,
pero
si
ustedes
acceden
a
la
página
de
knuckle
directamente,
deben
de
estarlos
dos
disponibles,
pero
si
no
lo
encuentran
de
cualquier
modo
se
pueden
contactar
con
nosotros
y
los
ayudamos
a
encontrarlo
para
que
no
tengan
problemas.
Después
de
mandar
el
texto,
entramos
al
siguiente
paso,
todos
los
textos
se
tienen
que
revisar,
lo
que
se
llama
una
revisión
doble
ciego
en
español,
double
blind,
esto
que
quiere
decir,
los
revisores
no
saben
la
identidad
de
los
autores
y
viceversa,
los
autores
tampoco
saben
quiénes
son
los
que
están
revisando
los
trabajos,
si
mal
no
me
equivoco
en
esta
ocasión,
en
conferencias
grandes
fue
de
ser
al
menos
tres
revisores,
nosotros
me
parece
que
vamos
a
tener
dos,
los
trabajos
van
a
tener
al
menos
el
punto
de
vista
de,
van
a
ser
juzgados
por
dos
personas
diferentes
y
entre
ellos
tampoco
se
conocen.
Una
vez
que
se
revisa
el
texto,
ustedes
van
a
recibir
una
notificación
de
si
su
trabajo
fue
aceptado
o
no,
esto
va
a
ser
por
correo
electrónico
o
a
través
directamente
de
la
plataforma
de
Microsoft,
soy
nueva
utilizando
esa
en
particular,
pero
me
parece
que
también
deben
de
llegar
una
notificación
por
ahí.
Al
final
sus
cuentas
tienen
que
estar
ligadas
a
un
correo
electrónico,
entonces
también
tengan
cuidado
de
registrar
un
correo
que
ustedes
revisen
con
frecuencia.
Y
bueno,
en
la
revisión
ustedes
van
a
encontrar
una
calificación,
se
califican
distintos
rubros,
ahorita
no
es
importante
que
sepan
cuales,
pero
van
a
recibir
una
calificación
y
los
revisores
van
a
incluir
comentarios,
van
desde
cuáles
son
las
portalesas
y
las
debilidades
de
su
texto,
y
suele
explicar
si
ustedes
tuvieron
una
calificación
buena,
a
lo
mejor
hay
cosas
que
los
revisores
consideran
que
ustedes
pueden
mejorar,
para
eso
sirve
de
nuevo,
es
un
ciclo
de
crítica
constructiva,
entonces
hay
algún,
dependerá
del
revisor,
algunos
dan
comentarios
muy
detallados,
algunos
dan
comentarios
muy
breves,
es
parte
de
la
experiencia.
Y
bueno,
una
vez
que
ya
saben,
sobre
todo
si
su
paper
fue
aceptado,
tienen
que
preparar
la
versión
final,
lo
que
comúnmente
se
le
conoce
como
el
camera
ready
version,
esto
que
quiere
decir,
generalmente
si
los
revisores
les
piden
hacer
algún
cambio,
deben
de
ser
cambios
mínimos,
entonces
no
sé,
a
lo
mejor
referencias
que
son
importantes,
que
son
relevantes
para
su
proyecto
y
no
fueron
mencionadas,
el
revisor
va
a
hacer
el
comentario
de
deberían
de
ser
incluidas,
a
lo
mejor
algo
que
debería
de
estar
explicado
un
poquito
más,
algo
que
no
está
muy
claro,
detalles
de
ese
estilo.
Y
bueno,
una
vez
que
ya
está
listo
su
texto,
el
último
paso
es
la
presentación,
nosotros
el
workshop
es
híbrido,
está
la
opción
de
presentar
en
línea
o
en
persona,
la
presentación
de
nuevo
como
estamos
colocados
con
una
conferencia
internacional
y
está
abierto
a
que
cualquier
persona
pueda
asistir,
las
presentaciones
van
a
ser
en
inglés.
Y
el
formato,
también
lo
tenemos
que
lo
vamos
a
confirmar
pronto
en
nuestra
página,
es
ya
sea
un
póster
o
unapresentación
oral
como
esta
con
diapositivas.
Entonces
no
dejen
de
checar
nuestro
sitio
para
estas
actualizaciones.
Y
bueno,
ahora
sí,
al
tema
que
nos
competes,
que
es
un
extended
abstract,
creí
que
es
más
fácil
de
entenderlo
en
comparación
con
otros
formatos
que
existen
en
otras
conferencias
y
en
general
tenemos
un
par
de
características,
cuál
es
la
extensión,
cuál
es
el
objetivo,
la
estructura
y
bueno,
por
ejemplo,
si
incluye
figuras
o
no,
por
ejemplo
el
tema
de
las
referencias.
Si
se
fijan
un
poquito,
en
general
son
muy
similares,
un
abstract,
un
extended
abstract
y
un
artículo
completo,
tienen
muchas
similitudes
y
en
general,
la
gran
diferencia
es
con
qué
tanto
detalle
uno
explica
el
proyecto,
el
trabajo.
Y
bueno,
eso
va
de
la
mano
de
la
extensión,
de
cuánto
espacio
se
espera
para
poder
explicar.
Un
abstract
es
generalmente
un
párrafo,
entonces
no
hay
mucho
espacio
para
explicar
muchas
cosas,
un
extended
abstract
es
un
poquito
más
amplio,
tiene
un
límite
de
entre
dos
o
tres
páginas
y
un
artículo
completo,
en
particular
en
conferencias
de
ACL,
se
considera
un
paper
corto,
un
paper
de
cuatro
páginas
y
un
paper
largo,
un
paper
de
siete
páginas.
Los
objetivos,
bueno,
de
nuevo,
el
abstract
es
más
como
para
dar
un
vistazo
rápido
de
qué
se
está
haciendo.
El
extended
abstract,
de
nuevo,
tenemos
más
espacio,
se
espera
una
explicación
un
poco
más
detallada,
pero
definitivamente
no
se
espera
tanto
detalle
como
si
ustedes
estuvieran
escribiendo
un
artículo
completo.
En
cuestión
de
secciones,
al
menos
el
extended
abstract
y
el
paper,
tienen
básicamente
las
mismas
secciones,
la
diferencia
es
la
expectativa
de
qué
tanto
detalle
se
tiene
que
dar.
El
abstract
es
más
concreto,
yo
puse
un
cuadrito
para
resaltar
la
parte
del
extended
abstract,
porque
nosotros
el
formato
que
aceptamos
en
el
workshop
es
únicamente
este,
y
bueno,
algunas
cosas
detalles
que
a
lo
mejor
se
pueden
preguntar,
aunque
no
son
necesarias,
si
ustedes
no
ponen
figuras
o
tablas
en
un
extended
abstract,
no
pasa
nada,
pero
es
recomendable,
porque
hace
que
su
paper
sea
más
fácil
de
leer
y
de
entender,
y
las
referencias
definitivamente
eso
sí
es
importante.
Y
bueno,
poco
más
a
detalle,
más
que
generalmente
uno
va
tratando
de
responder
preguntas,
traté
de
resumir
cuáles
son
las
preguntas
que
una
se
espera
que
se
resuelva
en
cada
una
de
las
secciones.
Y
en
la
introducción
generalmente,
si
ustedes
ven
el
texto,
uno
suele
ir
de
lo
general
a
lo
específico.
En
la
introducción
tenemos
que
empezar
con
describir
de
qué
se
trata
el
proyecto,
consideren
que
cualquier
persona
va
a
leer
su
texto,
y
debe
de
ser
muy
claro
para
la
gente
de
qué
va
la
cosa,
de
qué
temas
está
hablando.
Como
manera
de
demostrar
por
qué
su
trabajo
es
importante,
uno
suele
resaltar
cuál
es
la
mayor
contribución
que
este
trabajo
en
específico
está
haciendo.
Esto
va
un
poco
de
la
mano
con
el
objetivo,
cuál
es
el
objetivo
de
su
proyecto,
cuál
fue
el
problema
que
este
proyecto
está
tratando
de
resolver,
y
siempre
hay
una
motivación,
ya
sea
que
ustedes,
no
sé,
si
les
quiero
decir
algo,
ustedes
identificaron
que,
bueno,
si
mal
no
recuerdo
el
jacatón,
se
trata
de
crear
recursos.
El
hecho
de
que
no
haya
recursos
suficientes
en
español,
por
ejemplo,
para
entender
un
modelo,
es
un
problema
en
sí,
pero
es
un
problema
muy
general.
Esto
pueden
ser
todavía
de
nuevo
más
específicos.
Pero
bueno,
definitivamente
cuando
uno
genera
recursos,
pues
empieza
por
ahí.
La
motivación
es
esa.
Todo
el
mundo
reconocemos
que
necesitamos
datos
para
entender
un
modelo,
y
pues
si
no
hay
datos,
tenemos
que
empezar
por
crear
los
datos.
En
cuestión
de
antecedentes,
tenemos
que,
al
final,
se
busca
hacer
una
contribución.
Y
para
que
ustedes
puedan
justificar
que
están
haciendo
una
contribución,
tienen
que
demostrar
que
están
conscientes
de
qué
han
hecho
otras
personas.
Ustedes
tienen
que
mostrar
si
lo
que
ustedes
están
haciendo
es
completamente
nuevo,
o
si
es
un
problema
que
no
es
que
sea
nuevo,
pero
hay
pocas
personas
trabajando
en
él,
etcétera,
etcétera.
Hay
distintos
escenarios.
Entonces,las
preguntas
que
se
tratan
de
resolver
es
por
qué
es
relevante,
por
qué
es
importante
trabajar
en
el
tema
que
ustedes
están
tratando
en
su
texto,
quiénes
han
tratado
de
resolver
el
mismo
problema,
por
quiénes
me
refiero
a
otros
autores.
A
lo
mejor
hay
personas
que
están
trabajando
en
el
mismo
problema,
pero
ellos
decidieron
abordar
el
problema
de
una
manera
distinta
a
la
que
ustedes
están
proponiendo.
Entonces,
ahí
es
donde
ustedes
están
haciendo
una
contribución.
Tienen
que
dar
entonces,
por
lo
tanto,
un
poco
de
contexto
de
qué
hicieron
estas
otras
personas.
Y
resaltar
qué
es
lo
que
hace
diferente
su
trabajo
con
respecto
a
los
anteriores.
En
el
método,
una
vez
que
ustedes
ya
identificaron
cuál
es
el
problema,
ahora
tienen
que
hablar
de
qué
es
lo
que
ustedes
proponen
para
solucionar
ese
problema.
Ojo,
que
no
se
espera
que
ustedes
resuelvan
totalmente
un
problema.
A
veces
solamente
se
resuelve
una
parte,
pero
eso
definitivamente
es
una
contribución.
Lo
único
que
se
espera
es
que
esté
bien
argumentado.
Quede
muy
claro
cuál
es
el
problema,
cuál
es
la
solución
que
ustedes
proponen
y
cómo
procedieron
a
implementar
esa
solución.
En
el
caso
de
inteligencia
artificial,
eso
suele
explicar
cómo
se
diseñaron
los
experimentos.
Y
particularmente,
en
su
caso,
que
esté
a
lo
mejor
un
poco
más
orientada
la
parte
de
datos,
dar
detalles
de
cómo
se
hizo
la
recolección
de
los
datos.
En
los
resultados,
pues,
hay
dos
grandes
preguntas.
Antes,
deberían
de
tener
alguna
expectativa.
Debió
de
haber
algo
en
sus
cabezas
que
ustedes
esperaron
que
sucediera.
Y
para
eso,
ustedes
realizaron
un
experimento.
A
veces
los
resultados
no
son
exactamente
lo
que
ustedes
esperaron.
Eso
no
tiene
nada
de
malo.
Pero
lo
que
tienen
que
hacer
es
hacer
al
menos
el
contraste
de
qué
era
lo
que
ustedes
esperaban
y
qué
fue,
después
de
los
experimentos,
lo
que
ustedes
obtuvían.
Para
hacer
este
contraste,
en
más
detalle
es
donde
entra
en
la
parte
de
la
discusión.
Qué
tan
diferente
fue
lo
que
yo
esperaba,
a
lo
que
yo
obtuve,
qué
quiere
decir.
Y
a
veces
hay
cosas,
ustedes
al
final
no
pueden
adelantar
todo.
No
podemos
predecir
qué
es
lo
que
puede
pasar.
Muchas
veces
lo
que
pasa
en
ciencia
es
que
encontramos
preguntas
nuevas.
Y
por
eso
es
un
ciclo
de
nunca
acabar.
Si
encontraron
cosas
nuevas,
eso
también
es
una
contribución.
Aunque
no
hayan
podido
resolver
esas
nuevas
preguntas,
el
simple
hecho
de
que
ustedes
les
hayan
identificado
es
muy
importante
y
es
definitivamente
valioso.
En
la
conclusión,
cuando
uno
cierra
el
texto,
generalmente
ya
en
las
secciones
anteriores
explicaron
con
más
detalle.
En
conclusión,
simplemente
es,
en
breves
palabras,
repetir
qué
fue
lo
que
se
hizo,
cuál
fue
el
objetivo,
el
método
y
los
resultados.
De
nuevo,
si
ustedes
fueron
capaces
de
encontrar
preguntas
nuevas,
si
descubrieron
que
hay
algo
más
por
hacer
que
ustedes
no
ven
anticipado,
se
mencionan
en
conclusiones,
¿por
qué?
Porque
eso
se
suele
ligar
a
cuáles
son
los
siguientes
pasos
de
ese
proyecto.
Se
suele
mencionar,
ok,
el
siguiente
paso
de
esta
investigación
es
ahora
enfocarnos
en
esta
nueva
pregunta
que
salió,
¿no?
Cosas
de
ese
estilo.
No
sé
si
tenemos
ahorita
preguntas.
Bueno,
ahorita,
por
ejemplo,
en
el
chat,
rápidamente
quiero
mencionar
que
tenemos
a
Luciana
Benotti,
que
Luciana
también
es
parte
de
la
organización
del
workshop.
También
es
alguien
que
tenemos
en
la
organización
de
NACO,
de
ACL,
y
es
de
nuestras
representantes
latinoamericanas
en
la
comunidad.
Entonces,
gracias,
Luciana,
por
estar
aquí
apoyando.
Pero
bueno,
siguiendo
con
el
tema
de
los
textos,
estas
son
unas
consideraciones
generales
sobre
cómo
escribir
el
punto
número
1,
que
a
mí
alguien
me
lo
dijo
durante
mi
maestría,
es,
este,
sean
concisos,
este
de
nuevo.
Recordemos
que
ustedes
están
un
extended
abstract,
al
final
es
un
texto
científico,
y
la
manera
en
la
que
esta
persona
me
lo
explicó,
me
dijo,
no
es
una
novela.
No
te
quieras
hacerla
interesante
y
crear
como
intriga
y
dejarlo
más
interesante
al
final.
En
untexto
científico
es
al
revés.
Entonces,
tenemos
que
ser
muy
concretos,
muy
específicos,
de
qué
es
lo
interesante,
cuáles
fueron
las
contribuciones
desde
un
inicio.
Entonces,
de
nuevo,
no
están
escribiendo
una
novela,
tengan
en
mente
que
es
un
texto
científico.
Hay
un
par
de
consejos
que
tomé
de
un
blog,
que
en
la
siguiente
de
la
positiva,
o
en
la
siguiente
dos
lo
menciono,
pero
por
ejemplo,
hay
personas
que
sienten
que
es
un
texto
científico,
el
lenguaje
que
tiene
que
usar
también
tiene
que
ser
muy
rebuscado.
No
es
necesario,
de
hecho,
todo
lo
contrario,
un
buen
trabajo
es
un
trabajo
que
es
fácil
de
leer.
Y
eso
es
traduce
en
usar
un
lenguaje
simple.
Por
ejemplo,
no
es
necesario
que
digan
utilizar
cuando
perfectamente
podrían
decir
usar
cosas
de
ese
estilo.
A
veces,
con
la
intención
de
que
acepten
nuestros
trabajos,
solemos
venderlo
o
tratar
de
venderlo
como
algo
más
de
lo
que
realmente
es.
No
es
necesario
hacer
este
paso
de
nuevo.
No
se
trata
de
publicidad,
no
se
trata
de
que
de
si
su
modelo
es
muy
grande,
de
si
utilizaron
muchos
datos.
Un
buen
trabajo
es
un
trabajo
que
está
bien
estructurado.
Y
los
revisores
saben
reconocer
eso.
Al
menos,
los
revisores
se
les
pide
que
se
enfoquen
en
eso,
más
que
en
un
modelo
que
es
de
nuevo
muy
grande,
que
utilizó
muchos
datos,
o
que
mostró
una
evaluación
muy
alta.
Eso
no
es
necesariamente
un
trabajo
bueno.
De
nuevo,
¿qué
tan
fácil
de
leer
sea
su
texto?
Es
muy
importante
usar
ejemplos.
Es
la
mejor
manera
de
contribuir
a
que
sus
textos
sean
fáciles
de
leer.
Por
ende,
que
la
gente
esté
más
interesada
en
leer
que
es
de
lo
que
ustedes
están
trabajando.
Los
siguientes
consejos
es
más
en
la
etapa
de
cuando
sus
trabajos
ya
son
aceptados.
Es
parte
del
ciclo
de
vida,
de
escribir
un
texto
que
siente
que
a
veces
no
se
habla
mucho,
por
ejemplo,
determinar
el
orden
de
los
autores.
Aunque
mencioné
que
al
mandar
su
texto,
se
pide
que
sea
anónimo.
Al
final,
se
entiende
que
es
un
trabajo
en
equipo.
Y
la
regla
es
que
el
que
es
el
primer
autor
se
considera
que
es
el
que
contribuyó
más
al
trabajo.
Y
bueno,
en
ese
orden.
Eso
a
veces
puede
generar...
Si
ustedes
no
tienen
una
buena
comunicación
con
su
equipo,
puede
generar
conflictos.
Yo
les
recomendaría
que
lo
hablen
antes.
Si
hay
papers
en
los
que,
de
hecho,
creo
que
es
el
de
Masacani,
de
la
comunidad
de
África,
que
tiene
como
50
autores.
Y
creo
que
están
mencionados
todos
como
que
todos
contribuyeron
de
la
misma
manera.
Entonces,
es
cuestión
de
comunicación
y
de
llegar
a
un
acuerdo.
La
parte
de
los
agradecimientos
se
incluye
hasta
que
ustedes
saben
si
el
texto
es
aceptado
o
no,
por
qué.
Porque
a
lo
mejor
en
los
agradecimientos,
ustedes
sin
quererlo
pueden
dar
detalles
de
quiénes
son,
para
qué
institución
trabajan
y
de
nuevo
están
rompiendo
el
anonimato
del
trabajo.
Entonces,
por
eso
se
incluye
hasta
que
ya
es
aceptado.
Punto
número
uno,
es
una
buena
práctica
agradecer
a
los
revisores.
Yo
sé
que
a
lo
mejor
hay
revisores
que
no
son
muy
amables,
pero
bueno,
al
final
se
les
agradece
por
haber
dedicado
el
tiempo
a
leer
sus
textos.
Y
sobre
todo,
en
ciencia
hay
gente
que,
o
sea,
grants,
hay
un
número
que
se
asigna
al
dinero,
que
se
asigna
a
una
investigación,
se
suele
mencionar.
A
lo
mejor
en
este
caso,
en
específico,
yo
les
recomendaría,
a
lo
mejor
ustedes
no
tuvieran
acceso
a
un
grant,
pero
si
tuvieron
acceso,
por
ejemplo,
a
los
recursos
computacionales
de
Hogan
Face,
tal
vez.
Entonces
sería
una
buena
práctica
que
ustedes
incluyeran
en
sus
agradecimientos
a
Hogan
Face
o
en
particular
a
la
comunidad
de
Somos
en
el
Pij.
Eso
a
lo
mejor,
María
les
puede
dar
un
poco
más
de
detalles
en
si
los
van
a
incluir
en
los
agradecimientos,
de
qué
manera,
cuál
sería
el
formato
correcto
para
incluirlos.
Y
el
último
dato
es
más
una
cuestión
de
estilo.
De
nuevo
mencioné
que
nosotros
en
Inteligentes
Artificial,
en
NLP,
publicamos
en
conferencias,
pero
a
lo
mejor
ustedes
también
están
al
tanto
de
que
está
este
repositorio
que
se
llama
Archive,
donde
uno
puede
mandar
un
paper
que
se
les
llamaPreprint.
O
sea,
son
papers
que
no
están
revisados
por
nadie
y
generalmente
esos
papers
después
los
mandan
una
conferencia,
pero
no
siempre.
Si
es
el
caso,
se
recomienda
que
ustedes,
en
lugar
de
usar
la
referencia
del
paper
de
Archive,
utilizen
la
referencia
del
paper
de
cuando
ya
fue
publicado.
Y
donado,
si
están
ante
un
trabajo
que
nunca
fue
mandado
a
ni
a
un
journal
ni
una
conferencia,
pues
bueno,
usen
la
referencia
de
Archive.
En
particular,
yo
sé
que
este
hackathon
estaba
muy
enfocado
en
la
creación
de
recursos.
Esto
es
lo
tomé
de
la
página
de
Somos
NLP.
Y
bueno,
como
mencioné
aquí,
ustedes
tenían
que
desarrollar
un
modelo
de
lenguaje,
lo
cual
los
pasos
son
crear
los
datos,
entrenar
el
modelo
y
por
supuesto
evaluarlo.
Los
ejemplos
que
les
puse
aquí
no
son
extender
abstracts,
son
papers
completos.
Y
si
son
papers,
seguramente
son
papers
largos.
De
hecho,
creo
que
el
de
Bertork,
el
Bert
en
Turco,
no
tiene
un
paper,
su
repositorio
de
BigGateHawk
tiene
explicado
estos
detalles,
pero
no
en
formato
académico.
Pero
bueno,
lo
puse
porque
creo
que
es
una
buena
referencia
para
que
ustedes
se
den
una
idea
de
cómo
describen
desde
la
parte
de
la
creación
de
los
datos,
la
parte
del
entrenamiento
y
por
ejemplo
la
evaluación.
Y
bueno,
en
general,
estas
diapositivas
van
a
estar
disponibles
para
ustedes.
Como
mencioné,
algunos
puntos
los
tomé
del
blog
de
Bernard
Schwartz,
no
sé
si
lo
pronuncié
bien,
es
alguien
que
si
a
ustedes
no
le
suena,
es
una
investigadora
muy
importante
y
muy
activa
en
la
comunidad
de
NLP.
Yo
leí
este
post
y
creo
que
es
muy...
da
muy
buenos
ejemplos
y
si
tienen
tiempo
de
checarlo
después
y
están
interesados
en
escribiendo
textos
científicos,
definitivamente
vale
la
pena.
El
tutorial
de
la
primera
edición
de
este
taller
que
yo
hace
dos
años
por
Javier
Touret
está
disponible
en
línea.
Y
algo
también
importante,
de
nuevo,
si
ustedes
se
enfocaron
más
en
la
creación
de
recursos,
en
la
creación
de
datos,
una
buena
práctica
sobre
cómo
dar
los
detalles
de
los
datos,
o
sea,
si
no
se
enfocaron
tanto
en
la
arquitectura
de
un
modelo,
es
crear
una
tarjeta
con
los
datos
de
los
datos.
Está
la
documentación
de
The
Hogan
Face,
les
dejé
el
link
ahí
y
ahí
vienen
varios
ejemplos
de
cómo
lo
pueden
ustedes
realizar.
Y
bueno,
les
dejo
los
detalles
de
contacto
de
la
TNX
NDI
en
general
como
asociación,
como
comunidad
del
workshop.
Y
también
al
inicio
de
Gemi
Correos,
si
quieren
escribirme
directamente
a
mí.
Pero
bueno,
este
es
el
pendiente
de
nuestras
redes
y
bueno,
en
este
momento
mientras
yo
aquí
puedo
resolver
cualquier
pregunta
que
tengan.
Dale,
genial,
muchísimas
gracias
Diana
por
la
presentación.
Super,
o
sea,
creo
que
ha
estado
super
bien
explicada,
tanto
como
todas
las
estructuras,
como
la
estructura
de
un
buen
paper.
Y
también
me
la
verdad
me
ha
encantado
al
principio
toda
la
motivación
y
como
la
discusión
un
poco
de
la
diversidad,
no
solo
del
español,
sino
también
pues
eso,
las
diferentes
lenguas
que
también
se
hablan
en
España
y
Latinoamérica,
que
también
era
un
poco
el
fuego
que
queríamos
este
año
para
el
jacatón.
O
sea
que,
vale,
vamos
allá.
Primero,
como
anotación,
por
la
gente
que
en
diferido
no
lee
el
chat,
compartimos
que,
o
sea,
confirmamos
que
efectivamente
equipo
será
en
marzo
de
2025,
en
Santiago
de
Chile,
o
sea
que
uno,
que
era
un
año,
pero
ya
esperamos
a
todos,
esperamos
que
mucha
gente
pueda
participar.
Tenemos
una
pregunta
de
Guido
y
dice,
"buenas,
con
nuestro
equipo
tenemos
pensado
escribir
un
extende
de
abstract
sobre
una
herramienta
que
creamos,
más
del
estilo
de
demo
en
Hine
Face,
entiendo,
en
una
demo.
¿Tienes
recomendaciones
para
este
tipo
de
proyectos?"
Con
demos,
refieren
a
que
no
entrenar
a
un
modelo,
utilizaron
algo
que
ya
existía.
Esperamos
la
respuesta
de
Guido.
Si
puedes
dar
un
bit
more
de
detalles,
porque
hay
distintas
maneras
de
hacer
un
demo,
hay
que,
a
lo
mejor,
si
entrenaron
el
modelo,
pero
no
lo
entrenaron
tanto,
o
sea,
no
tanto
como
lo
que
se
presenta
en
un
artículo
científico,
pero
al
final,
si
hubo
una
etapa
deentrenamiento,
puede
que
no
haya
existido
etapa
de
entrenamiento
y
solamente
es
como
algo
muy
específico,
orientado
hacia
una
aplicación.
Entonces,
hay
distintos
escenarios,
dependiendo
de
cuáles
sean
su
caso
en
específico,
les
puedo
dar
un
poco
más
de
orientación
para
escribir
el
abstract.
Sí,
ha
escrito,
claro,
pero
no
sé
a
qué
pregunta
realmente
estaba
respondiendo.
Si
puedes
decirnos,
Guido,
si
se
trata
de
que
el
enfoque
es
la
aplicación
como
tal,
la
demo,
la
UI,
o
si
también
ha
habido
entrenamiento
de
modelos,
día
nos
explica
un
poco
mejor.
Son
conjuntos
de
herramientas
para
analizar
sesgos
en
modelos
de
lenguaje.
Entiendo
que
han
creado,
bueno,
efectivamente,
lo
que
me
ha
hecho
es
que
también
te
voy
a
agregar
los
datos.
Ok,
sí,
la
parte
de
los
demos,
no
lo
mencioné
durante
la
presentación,
pero
de
hecho
en
las
conferencias
incluso,
o
sea,
los
demos,
o
sea,
algo
que
es
más,
aunque
se
recomienda
que
el
código
sea
abierto,
que
sea
disponible,
la
verdad
es
que
no
todos
los
papers,
no
todos
los
artículos
incluyen
el
código,
pero
a
veces
en
la
presentación
uno
no
presenta
el
modelo.
Hay
un
track
diferente
para
demostrar
cómo
funciona,
que
es
algo
más
orientado
en
la
aplicación.
El
estilo
de
escribir
definitivamente
cambia
un
poquito,
pero
creo
que
esto
nos
lleva
más
como
a
la
parte
general
de
que
es
un
texto
científico.
Ustedes
al
final
sí
que
identificaron
un
problema
y
están
proponiendo
una
solución.
De
nuevo,
al
final
la
solución
no
fue
entrenar
un
modelo
desde
cero,
no
fue
crear
datos
desde
cero,
pero
identificaron
un
problema.
Entonces,
no
va
a
ser
tan
técnico,
porque
ustedes
no
van
a
dar
los
detalles
de
cuál
es
la
arquitectura
del
modelo,
de
qué
manera
se
entrenó,
etcétera,
es
más
cómo
se
utilizó,
es
muy
válido,
pero
por
ejemplo,
yo
esperaría
ver
de
nuevo,
si
fue,
vamos
a
sumir.
Sí
que
ha
dicho
que
crearon
las
métricas,
pero
no
se
va
a
dar
la
solución
por
interrumpirte.
Acaba
de
decir
que
sí
que
crearon
las
métricas.
OK,
de
nuevo,
es
muy
válido
que
ustedes
utilicen
un
modelo
que
ya
existía,
pero
por
ejemplo,
a
veces
hay
más
de
una
opción,
por
decir
algo,
ahorita
para
bien
o
para
mal,
hay
más
de
un
lenguaje
de
modelo.
Ya
no
nada
más
es
chat
GPT,
ya
tenemos
a
Lama,
ya
tenemos
a
Cloud,
tenemos
muchísimos.
Si
les
cogí
chat
GPT
y
no
escogí
Lama,
por
ejemplo,
o
sea,
ustedes
demostrar
que
están
conscientes
de
que
existe
más
de
uno
y
algo
debió
de
haberlos
llevado
a
ustedes
a
escoger
un
modelo
en
específico.
Entonces,
eso
es
parte
de
la
motivación.
Ese
tipo
de
detalle
son
los
que
se
esperan,
de
nuevo,
se
pregunta
mucho
el
por
qué,
por
qué,
por
qué,
si
escogiste
un
modelo,
por
qué
escogiste
ese,
y
si
escogiste
esta
manera
de
resolver
el
problema,
por
qué
le
escogiste.
Entonces,
en
la
parte
de
la
evaluación,
sobre
todo,
a
lo
mejor
es
donde
deberían
de
hacer
un
poco
más
de
énfasis,
de
qué
manera
ustedes
decidieron
o
comprobaron
que
al
final
es
este
setting,
es
esta
propuesta
que
ustedes
traen,
de
nuevo
hay
un
problema,
que
era
la
mejor
manera
de
resolver
ese
problema
en
específico.
Genial.
Bueno,
si
tienes
follow
up
questions,
perdón,
las
puedes
preguntar
también
y
se
las
paso
a
Diana.
Tenemos
otra
pregunta.
Sí,
Gabriela
está
interesada
en
participar
como
voluntaria
en
las
DEMIX
entiendo
que
con
la
organización
del
workshop,
que
ya
sería,
supongo,
para
la
siguiente
edición,
pero
bueno,
unos
comentarios.
Tenemos,
bueno,
no
sé
si
está
interesada
en
participar
en
esta
edición
del
workshop,
todavía
estamos
recibiendo
aplicaciones
de
voluntarios.
No
entré
en
detalles
de
cuál
es
el
rol
de
un
voluntario,
pero
bueno,
hay
bades
de
cosas
de
logística,
una
vez
ya
en
la
conferencia,
o
sea,
todo
cuenta
desde
tener
las
computadoras
listas,
ver
que
la
gente
se
registre,
ver
que
hasta
esto,
que
las
diapositivas
estén
listas,
es
un
evento
híbrido,
entonces
se
dividen
las
tareas.
A
veces
hay
problemas
de
conectividad
y
siempre
es
más
fácil
tener
a
un
voluntario
o
dos
que
estén
al
pendiente
de
las
preguntas,
alguien
al
pendiente
de
la
conectividad,
ese
tipo
de
cosas.
Genial.
Creo
que,
bueno,estoy
segura
de
que
compartí
el
enlace
de...
con
más
información
de
cómo
participan
en
la
conferencia
y
su
página
web
en
el
artículo
de
blog
que
publicamos
para
la
colaboración.
O
sea,
que
Gabriela
ahí
puedes
encontrar
más
info
y
si
tienes
cualquier
duda,
me
preguntas
por
Discord
y
también
se
la
puedo
trasladar
al
equipo
de
la
T-Mix
sin
ella
ahí.
Hay
una
pregunta
de
Gabriela,
porque
creo
que
no
responde.
Ah,
no,
creo
que
está
después,
pero
no
sé
si
las
dos
te
refieres,
¿verdad?
Sí.
Vale,
la
formación
de
Datasets
puede
ser
considerada
como
una
publicación
de
trabajo
en
proceso.
Es
decir,
entiendo
si
están,
porque
en
general
en
Hackathon
les
invitamos
a
crear
una
base
de
datos
entre
un
modelo
y
crear
su
demo.
Pero
es
verdad
que
hay
un
par
de
proyectos
de
equipos
que
están
creando,
están
haciendo
mucho
hincapié
en
crear
buenos
Datasets,
que
me
encanta,
esa
herramienta
es
muy
importante,
y
no
han
llevado
a
entrenar
el
modelo,
entonces
supongo
que
esta
pregunta
es
saber
si
eso
también
vale
como
proyecto
para
presentar.
Sí,
de
hecho,
es
importante
por
qué
no
se
me
pasó
ese
detalle
mencionar
que,
o
sea,
una,
otra
de
las
diferencias
entre
un
Extended
Abstract
y
un
Paper
completo,
ya
sea
corto
o
largo,
es
que
en
un
Paper
corto
o
largo
la
investigación
debe
estar
completa.
O
sea,
no
se
aceptan
trabajos
en
progreso.
El
Extended
Abstract
sí
tiene
esta
flexibilidad
de,
de
nuevo,
hay
un
ciclo
de
vida
del
proyecto,
¿no?
Y
ahora
a
veces
ustedes
están
en
la
parte
de
los
datos,
a
parte,
a
lo
mejor
en
la
parte
de
experimentos,
lo
ideales
a
lo
mejor
comparar
más
el
modelo,
a
lo
mejor
solamente
les
dio
tiempo
de
probar
el
modelo
base,
ese
tipo
de
cosas,
¿no?
Eso
es
más,
el
Extended
Abstract
es
más
flexible,
y
en
la
parte
de
experimentos,
mientras
ustedes
expliquen
la
lógica
del
diseño
de
experimentos,
aunque
todavía
no
los
hayan
implementado,
es
aceptarlo.
En
un
Paper
normal
no
es
aceptarlo,
porque
sí
se
espera
que
tuvieran
más
tiempo
para
hacerlo,
¿no?
Nosotros
aquí,
de
nuevo,
mientras,
ahí
se
me
refiero
con
que
esté
bien
estructurado.
Al
final
el
diseño
todo
está
conectado,
y
espero
que
esa
idea
le
haya
podido
transmitir,
la
motivación,
el
problema,
la
metodología,
todo
va
de
la
mano.
Y
de
hecho,
generalmente,
si
la
motivación,
si
el
problema
no
está
claro
de
inicio
y
cuál
es
su
propuesta,
uno
puede
llegar
a
la
parte
de
experimentos
y
no
tiene
sentido.
Todo
tiene
que
hacer
sentido.
Que
uno
esté
de
acuerdo
que
era
la
mejor
manera
de
resolver
o
no
un
problema,
ese
es
un
tema
aparte,
pero
todo
debe
de
estar
conectado.
Entonces,
sin
la
parte
de
su
diseño
de
experimentos,
de
nuevo,
ustedes
por
la
razón
que
sea,
no
tuvieron
por
cuestiones
de
tiempo,
y
de
hecho
lo
pueden
mencionar
en
el
Paper,
por
cuestiones
de
tiempo,
que
no
han
podido
pasar
a
la
etapa
de
implementación,
pero
entonces
se
tienen
que
enfocar
en
describir
en
qué
va
a
consistir.
O
sea,
el
diseño
de
los
experimentos
ya
debe
de
existir,
simplemente
les
falta
la
implementación,
y
eso
es
lo
que
ustedes
deberían
de
poner
en
el
Paper.
OK,
genial.
Una
pregunta
un
poco
más
de
organización.
Asis
nos
pregunta
si
para
mandar
el
documento
tienen
hasta
el
viernes
a
las
23,
15
de
neve
horas
de
donde.
Anywhere
on
Earth,
¿verdad?
Sí,
pero
eso
es
otro
detalle
importante.
De
hecho,
considerando,
bueno,
un
punto
muy
importante
es,
de
nuevo,
estamos
tratando
de,
en
esta
colaboración
de
nosotros,
como
comunidad
en
LatinXNAI,
y
la
parte
del
hackathon,
temíamos
diferentes
deadlines,
¿no?
Y
de
hecho,
creo
que
ustedes
les
permitieron
una
semana
más.
Creo
que
el
deadline
original
era
el
domingo
pasado,
¿no?
Si
ayer.
Entonces,
pues
bueno,
no
sería
justo
que
nosotros,
pues
eso
implicaría
que
ustedes
tienen
menos
tiempo
para
escribir.
Entonces,
todavía
estamos
afinando
los
detalles
de
cuál
es
la
fecha
final.
Lo
único
que
les
puedo
adelantar
es
que
estamos
en
pláticas
de
cuál
es
la
mejor
fecha
para
extenderlo,
pero
definitivamente
estamos
tratando
el
tema
de
la
extensión,
para
hacer
congruentes.
Y
si
el
tema
del
tiempo
es
lo
que
se
conocecomo
Anywhere
on
Earth,
que
se
supone
que
es
como
un
estándar,
no
sé
si
en
realidad
coincide
con
el
horario
de
algún
país,
dependiendo
de
dónde
estén
ustedes.
Generalmente
tienen
que
entrar
a
una
página
y
ver
si
ustedes,
por
ejemplo,
no
sé,
yo
ahorita
estoy
en
Inglaterra,
Anywhere
on
Earth,
no
sé,
las
11.59
de
la
noche
de
Anywhere
on
Earth,
no
sé
a
qué
se
traduce
en
el
tiempo
en
Inglaterra.
Entonces,
generalmente
uno
tiene
que
checar,
dependiendo
de
dónde
estén
ustedes.
Vale,
entiendo
por
lo
que
acabas
de
decir,
que
igual
estendéis
también
la
fecha
de
aceptación
de
proyectos
para
el
workshop.
Ah,
vale,
genial,
perfecto,
pues...
Sí,
porque
creo
que
de
hecho
nosotros
habíamos
nuestro
deadline
original
era
el
29
también.
Sí,
o
sea,
nuestro
deadline
original
era
ayer,
para
que
la
gente,
o
sea,
como
les
damos
acceso
a
los
recursos
del
hackathon
durante,
bueno,
para
que
pudiesen
mejorar
los
proyectos
para
el
workshop,
también
lo
estandimos
para
todo
el
mundo
porque
no
tenía
sentido,
o
sea,
era
muy
injusto
que
fuese
sólo
para
unos
equipos
que
lo
quisieran
mandar.
Sí,
perfecto,
si
lo
estendéis,
veremos
con
High
Face
si
podemos
estender
también
eso.
Sí,
eso
es
el
tema
prioridad
de
nuestras
juntas
en
este
momento,
entonces,
en
cuanto
nos
pongamos
de
acuerdo
con
la
fecha,
lo
vamos
a
anunciar,
entonces,
por
favor,
de
nuevo,
es
Chicken,
la
nuestra
red
de
Twitter,
de
Ex,
nuestro
sitio
web,
para
ver
cuál
es
la
actualización
de
la
fecha
para
aceptar
trabajos.
Perfecto.
Una
pregunta
sobre
la...
esto,
creo
que
sobre
las
becas.
Nos
dice,
"Galucre,
solo
dos
papers
van
a
ser
aceptados
o
pueden
ser
más?"
Y
en
caso
de
ser
aceptado,
incluye
la
entrada
en
el
evento
de
México.
Se
lió
un
poco
con
varias...
Bueno,
este...
Las
becas...
El
workshop
está
abierto
a
recibir
en
el
número
de
papers,
¿no?
Mientras
más
recibamos
mejor,
de
nosotros
encantados.
No
sé
si
la
pregunta
sea
un
autor
cuántos
puedan
mandar,
en
general
no
hay
límites.
Si
ustedes
participaron
en
distintos
proyectos,
a
lo
mejor
lo
hicieron,
no
lo
sé,
es
perfectamente
posible,
definitivamente
implica
más
trabajo
para
ustedes,
pero
nada
los
limita
a
mandar
más
de
uno,
pero
que
no
sea
el
mismo.
Ahora,
los...
Estoy
tratando
de
buscar
la
plada
en
español,
perdón.
Los
premios,
las
becas,
nosotros
vamos
a
decir,
por
ejemplo,
creo
que
la
vez
pasada
tuvimos...
recibimos
20
papers,
por
decir
algo,
10
fueron
aceptados,
y
de
esos
10
escogimos...
¿cuál
fue...
no
me
acuerdo
si
escogimos
igual
1
o
2?
De
los
mejores
papers.
Sólo
los
mejores
papers,
porque
las
becas
para
KIPU
son
únicamente
dos,
sólo
los
mejores
papers
van
a
recibir
la
beca
para
asistir
a
la
conferencia
en
Chile.
El
evento
en
México,
como
de
todos
modos,
ustedes
tienen
que,
como
mencioné,
es
necesario
que
se
registren
a
la
conferencia
principal.
Y
bueno,
pues
ya
se
registraron,
pues
se
espera
que
participen.
Es
parte
de...
para
también
para
ustedes
conocer,
escuchar,
poder
interactuar
directamente
con
los
autores
de
otros
trabajos,
que
igual
son
súper
interesantes.
Este...
Pero
bueno,
si
eso
está...
Ustedes
participan
en
la
conferencia,
básicamente
lo
único
que
necesitan
es
pagar
el
registro.
Y
es
parte
de
lo
que
nosotros
tenemos
en
prioridad
de
poder,
pagar,
para
que
ustedes
puedan
participar.
Genial.
Creo
que
ahora
está
todo
claro.
Bueno,
ya
casi
vamos
a
llegar
a
la
hora
de
taller.
Esperamos...
Unos
segunditos
a
ver
si
queda
alguna
pregunta
por
hacer.
Yo
aprovecho
para
decirte
que,
efectivamente,
los
agradecimientos
sí
que
estaría
bien
que
aquí
se
menciona
que,
bueno,
obviamente
las
personas
que
han
desarrollado
el
proyecto
de
recursos
de
hackathon
que
ahora
menciona
eso,
pero
les
pantaremos
como
hace
dos
años
un
mini...
como
un
texto,
vaya,
para
que...
Segundos
pueden
cortar
y
copiar,
¿no?
Tal
cual,
si,
al
final
es
lo
que
hicimos.
Además,
ahora
el
"Hineface"
en
el
Hub
puedes
crear
un
doy,
para
tus
datas
sets
o
tus
modelos.
Entonces,
así
también
es
más
fácil
de...
como
de
referenciar.
Y
ya
está.
Pero,
bueno,
eso
lo
compartiré
en
Discord.
Bueno...No
es
muy
tiempo
como
mencioné,
eso
se
suele
hacer
hasta
que
ustedes
saben
si
así
todo,
¿no?
Entonces,
todavía
tienen,
pues,
como
un
mes
para
afinar
esos
detalles.
Genial.
Bueno,
creo
que
no
hay
más
preguntas.
Muchísimas
gracias
Diana,
por
todo.
Como
dijiste,
también
me
compartirás
las
de
apositivas
y
las
subiré...
bueno,
las
voy
a
dejar
en
los
comentarios
de
la
descripción
del
vídeo,
por
si
para
la
gente
que
lo
habían
diferido.
Y
las
compartirás
también
en
Discord.
Y
ya
está.
Muchísimas
gracias.
Voy
a
hacer...
A
lo
mejor
me
van
a
encontrar
en
el
Discord,
pero
sinceramente
no
soy
muy
activa
ahí.
Entonces,
yo
no
tengo
problema
con
que
me
contacten
directamente,
pero
si
me
quieren
contactar,
es
más
fácil
que
les
responda
por
correo.
Porque
sí
que
María
me
invitó
a
formar
parte
de
la
comunidad,
pero
no
soy
muy
activa
por
ahí.
Y
entiendo
que
todo
esto
puede
ser
muy
nuevo
para
ustedes
y
que
hay...
a
lo
mejor
preguntas
que
no
me
dieron
tiempo
de
resolver.
Y
nosotros
de
este
lado,
pues,
no
tenemos
ningún
problema
en
resolverlas,
en
responderlas.
Entonces,
tienen
el
correo,
mi
correo.
Y
también
tienen
el
correo
del
comité,
en
general,
del
workshop,
que
es
el
de
LXNLP.
Si
usted
escribe
en
esa
dirección,
nos
llega
todo
el
comité
organizador.
Entonces,
alguno
de
nosotros
les
va
a
responder.
Genial.
Lo
acabo
de
compartir
ahí
unos
últimos
segunditos
para
que
por
serguen
no
lo
había
contado.
Ya
está.
Pues
nada,
de
nuevo,
muchas
gracias.
Vamos
por
finalizado
el
taller.
Si
tenéis...
si
os
queda
cualquier
duda,
ya
sabéis
cómo
contactar.
Y
nada,
dieron
un
placer.
Y
hasta
la
próxima.
Gracias
y
nos
esperamos. | Diana Galván |
Empatía y Emociones en IA: Dónde estamos y a dónde vamos, Amanda Cercas Curry @MilaNLP | #Somos600M | Hola
a
todos
el
mundo,
llegamos
a
la
recta
final
del
hackathon,
somos
600M
y
por
tanto
también
a
la
última
quino.
Como
sabéis
nuestro
objetivo
es
crear
recursos
abiertos
de
procesamiento
de
lenguaje
natural
en
español
y
lenguas
coficiales
que
representen
la
diversidad
de
los
600
millones
de
personas
hispanohablantes
y
además
también
os
queremos
invitar
a
reflexionar
¿vale?
Hoy
os
traigo
un
par
de
preguntas
¿vale?
Las
voy
a
leer
poquito
a
poco
porque
son
bastante
densas
y
así
también
empezamos
bien
la
quino.
¿Qué
son
las
emociones
y
la
empatía
y
qué
papel
desempeñan
en
nuestras
vidas?
¿Cómo
pueden
los
modelos
aprender
a
detectar
emociones?
¿Cómo
pueden
responder
los
modelos
del
lenguaje
a
las
emociones
de
los
usuarios?
¿Y
cuáles
pueden
ser
las
consecuencias
para
el
usuario
y
para
la
sociedad?
Vale
pues
hoy
vamos
a
responder
estas
preguntas
con
Amanda
que
es
investigadora
pues
doctoral
en
Milán
en
el
PI
en
la
Universidad
Boconi
de
Milán
y
nada
la
verdad
que
espero
que
estéis
igual
de
interesados
por
este
tema
que
yo.
O
sea
que
nada
muchísimas
gracias
Amanda
por
estar
aquí
bienvenida
y
todo
tuyo.
Muchas
gracias
pues
vamos
a
empezar
directamente,
entonces
voy
a
hablar
precisamente
de
eso,
de
la
empatía
y
las
emociones
en
la
inteligencia
artificial
para
tomar
una
idea
de
dónde
estamos
ahora
mismo
y
hacia
dónde
está
yendo
la
cosa
con
la
inteligencia
artificial
y
los
modelos
que
ahora
mismo
están
explotando.
Entonces
como
ha
dicho
María
muchas
gracias
por
la
introducción,
soy
investigadora
por
doctoral
en
la
Universidad
Boconi,
me
saqué
el
doctorado
en
Harriet
Watt
en
Elimburgo
y
ahí
trabajé
con
modelos
conversacionales
sobre
todo
con
sistemas
como
Alexa
que
hace
ya
un
par
de
años
y
la
ética
en
el
PDM.
Entonces
ahí
tenéis
mis
contactos
si
queréis
contactarme
pero
hoy
en
día
sigo
trabajando
en
temas
de
ética
y
sobre
todo
me
gusta
mucho
dejar
que
otros
disciplinas
como
pueden
ser
la
filosofía
influencen
mi
trabajo
en
el
PDM.
Entonces
hoy
os
voy
a
hablar
de
un
trabajo
que
hemos
estado
haciendo
como
un
grupo,
esto
es
el
proyecto
que
estamos
llamando
el
proyecto
Penelope
que
viene
de
la
filosofía
de
emociones
en
el
PDM
y
el
trabajo
que
hacemos
con
Flor
que
también
es
postdoc
con
conmigo
en
Boconi,
Alda
Curry
que
es
una
profesora
de
filosofía
de
hecho
en
la
Universidad
de
Linnx
y
ella
hace
filosofía
de
emociones,
Gavin
Overcromby
que
es
profesor
en
Computer
Science
en
Harriet
Watt
y
Der
Kowie
que
es
profesor
en
Boconi.
Entonces
vamos
a
empezar
por
qué
es
la
empatía
y
la
empatía
es
la
capacidad
que
tenemos
a
tomar
perspectiva
en
la
perspectiva
de
otra
persona,
de
entender
su
situación
y
sentir
los
mismos
que
tienen
ellos.
Entonces
teniendo
esto
en
cuenta
puede
la
inteligencia
artificial
ser
empática
de
la
forma
en
la
que
los
humanos
somos
empáticos
a
la
misma
de
cedugón
y
hay
mucha
gente
que
piensa
que
en
el
futuro
tampoco,
pero
vamos
a
pensar
en
la
inteligencia
artificial
que
tenemos
hoy
en
día,
sobre
todo
en
los
modelos
de
lenguaje
porque
estamos
hablando
aquí
de
PDM.
Entonces
lo
que
entendemos
por
empatía
en
este
contexto
no
se
trata
de
ponerse
en
el
lugar
de
otra
persona
y
de
entender
lo
que
sienten
ellos,
sino
en
responder
de
forma
comprensiva,
de
forma
empática
a
situaciones
y
expresiones
emocionales
de
los
usuarios,
como
pueden
ser
calmar
emociones
negativas
o
aumentar
emociones
positivas.
Y
esto
es
lo
que
hacen
los
modelos,
en
realidad
podríamos
responder
de
otra
forma,
mejor
que
debemos
aumentar
emociones
negativas,
pero
en
los
modelos
que
vemos
hoy
en
día,
la
forma
de
actual
empáticamente
de
lo
que
estamos
hablando
al
hablar
de
respuestas
empáticas
es
justo
de
esto,
de
calmar
las
cosas
negativas
y
de
aumentar
las
emociones
positivas.
Cuando
estás
feliz
quieres
que
te
sientas
más
feliz.
Entonces
aquí
vemos
un
par
de
ejemplos,
si
yo
le
digo
al
chatGPT
por
ejemplo
que
estoy
muy
molesta
con
mi
novio
porque
se
ha
ido
de
fiestas
con
mi,
chatGPT
me
dice
exactamente
eso,entiendo
que
te
sientes
molesta
y
que
no
es
hora
de
la
comunicación,
etcétera,
pero
si
trata
de
que
yo
me
siento
poco
menos
molesta
y
que
piense
un
poco
en
poner
en
el
lugar
de
mi
novio,
pero
que
yo
tengo
que
entenderlas
yo
y
mi
novio,
los
entendemos
estas
cosas.
Y
por
otro
lado,
con
una
emoción
positiva,
como
puede
ser
lo
orgullo,
chatGPT
hace
lo
mismo,
te
invita
a
celebrar
esto
aún
más,
entonces
aumenta
esta
televisor.
Y
chatGPT
es
un
ejemplo,
pero
en
realidad
la
mayoría
de
los
sistemas
se
centran
en
hacer
esto
y
hay
sistemas
hoy
en
día
que
se
están
creando
específicamente
para
ser
más
empáticos
en
este
sentido.
Y
lo
vemos
en
todas
las
conferencias
y
si
seguís
algunos
de
los
papers
que
se
ven
en
archive,
veréis
más
y
más
y
más
papers
tratando
de
crear
sistemas
de
diálogo
que
sean
empáticos.
Y
esto
puede
ser
problemático?
Pues
por
supuesto.
Por
un
lado
estamos
hablando
de
antropomorfizar
a
los
modelos,
les
dan
trato
de
ser
más
humanos,
empatías
una
cosa
que
es
únicamente
humana,
probablemente
al
mejor
algunos
animales,
pero
nos
habla
de
poder
sentir
lo
que
sientes
a
persona.
Y
eso
puede
ser
problemático,
pero
no
vamos
a
meternos
en
ese
en
general
ahora.
Vamos
a
centrarnos
en
la
empatía
en
sí.
¿Qué
otros
problemas
puede
traer?
Pues
realmente
para
ponernos
más
en
contexto
tenemos
que
entender
qué
son
las
emociones
y
qué
es
el
papel
que
se
empeñan
en
nuestras
vidas.
¿Por
qué
son
importantes
las
emociones?
Entonces
las
emociones
son
estados
objetivos
que
se
caracterizan
por
una
experiencia
afectiva
y
nos
influyen
en
la
percepción,
la
forma
de
pensar
y
la
forma
de
actuar.
Y
por
lo
tanto
nos
afecta
la
forma
de
tomar
decisiones.
Ya
sabéis
que
hay
muchas
redes
que
dicen
"no
tomes
decisiones
cuando
estés
enfadado,
enfadada,
no
te
comprometas
a
cosas
cuando
estás
feliz".
Porque
realmente
las
emociones
que
tenemos
nos
pintan
el
mundo
de
una
forma
o
de
otra,
pero
son
realmente
una
parte
esencial
de
nuestra
experiencia
y
nos
dicen
cosas
muy
importantes
ahora
venimos.
En
general
hay
muchísimas
teorías
psicológicas
sobre
todo
de
qué
tipo
de
emociones
existen,
la
más
popular
sobre
todo
en
el
N,
es
la
teoría
de
Ekman
que
dice
que
hay
cinco
emociones
básicas
que
son
el
miedo,
la
ira,
el
asco,
la
alegría
y
la
tristeza.
Que
las
otras
emociones
son
en
cierto
lado
combinaciones
de
estas
o
distintos
sabores
de
esas
emociones
como
la
frustración
por
ejemplo
puede
ser
un
tipo
de
ira.
Y
las
emociones
desempeñan
papeles
muy
muy
importantes.
Cada
emoción
está
diciendo
algo
sobre
una
situación
en
la
que
estemos
o
sobre
una
persona.
Si
estás
enfadado
lo
que
nos
está
diciendo
el
enfado
es
que
se
nos
ha
hecho
una
injusticia.
Te
enfadas
porque
alguien
te
ha
tratado
mal
porque
alguien
no
te
ha
dado
lo
que
te
merecías.
Por
otra
de
la
tristeza
nos
nota
pérdida,
pero
además
estas
cosas
no
sólo
nos
dicen
exactamente
esto,
pero
nos
dicen
algo
de
nosotros
mismos
y
del
mundo.
Para
sentir
injusticia
tienes
que
entender
que
te
mereces
algo
y
por
lo
tanto
te
tienes
que
autovaluar
en
cierto
modo,
entender
que
tienes
derecho
a
algo.
Por
lo
tanto
por
contraste
la
tristeza
nos
habla
de
fiesta
en
potencia,
la
indefensión.
No
puedes
hacer
nada
por
eso
y
por
eso
estás
triste.
Donde
el
enfado
te
llama
actuar
y
acorregir
algo,
la
tristeza
se
trata
de
un
dolor
por
una
pérdida
que
no
puedes
hacer
nada
por
ello.
Y
entonces
si
las
emociones
nos
están
hablando
de
nuestros
valores,
de
luchar
por
las
cosas
que
nos
importan,
las
cosas
que
nos
merecemos
o
celebrar
cosas
buenas
aliviar
o
amplificar
esas
emociones
puede
tener
repercusiones
bastante
grandes
en
nuestras
vidas.
Si
la
vida,
la
ira
nos
invita
a
reclamar
injusticias,
¿qué
pasa
si
por
ejemplo
en
el
ejemplo
que
supongo
es
al
principio
de
ChatGPT,
que
escribo
que
estoy
muy
enfadada
por
mi
novio,
si
ChatGPT
en
vez
de
calmar
esa
ira,
la
lenta,
la
quiere
agravar
más,
¿no?
Puedía
llevarme
a
romper
con
mi
novio
por
esas
cosas.
Si
por
otro
lado
la
calma
como
lo
ha
hecho,
al
mejor
mi
novio
me
está
tratando
mal
todos
los
días
y
tendría
sentido
dejarlo.Entonces
no
son
consecuencias
que
no
valgan
nada,
es
algo
importante.
Y
podemos
ver
algo
así
parecido
también
a
niveles
más
grandes.
¿Qué
pasa
si
estamos
hablando
de
justicia
social?
Sabemos
de
la
filosofía
feminista,
por
ejemplo,
hay
muchos
escritos
sobre
la
importancia
de
la
ira,
del
enfado
en
términos
de
luchar
por
causas
sociales
como
puede
ser
el
racismo
o
el
sexismo.
¿Qué
pasa
si
la
inteligencia
artificial
calma
esas
emociones
a
escaras
enormes?
Todos
los
usuarios
de
ChatGPT
dejan
de
estar
enfadados
para
siempre,
puede
tener
consecuencias
materiales
para
la
sociedad.
Claro
que
esto
es
un
ejemplo
al
mujer
que
es
muy
grande,
pero
no
es
algo
que
podemos
completamente
ignorar.
Y
por
otro
lado
también
pasa
con
más
emociones
positivas.
El
orgullo
en
ciertas
cosas
es
bueno.
Si
yo
debería
ser
orgullosa
de
mí
misma
por
graduarme,
por
sacarme
el
doctorado,
tengo
que
estar
con
mucho
trabajo,
digamos.
Pero
sabemos
también
que
el
orgullo,
creo
que
además
es
una
emoción
que
es
positiva,
pero
que
sabemos
que
puede
tener
consecuencias
negativas
y
eres
demasiado
orgulloso
para
aceptar
tus
errores,
por
ejemplo.
Entonces
espero
que
ya
se
estés
seleccionando
un
poco
sobre
esos
papeles
y
cómo
queremos
abordar
las
emociones.
Pero
además
no
solo
cuesta
entender
realmente
la
situación
y
si
es
apropiado
o
no
calmar
o
alentar
esas
emociones.
¿Qué
pasa
si
los
modelos
no
entienden
la
emoción
en
sí?
La
inteligencia
artificial
no
es
humana,
no
siente
emociones.
Tenemos
que
entender
la
emoción
que
la
persona
está
sintiendo
a
través
del
lenguaje
puede
ser
o
puede
ser
algo
último
de
la
partida
del
vídeo.
Pero
como
humanos
nos
confundimos
muchas
veces
como
modelos,
los
modelos
se
pueden
confundir
digamos
también.
Pero
no
solo
es,
os
voy
a
hablar
ahora
de
un
trabajo
que
hemos
hecho
en
el
que
demostramos
que
los
modelos
además
tienen
sesgos
de
género
a
nivel
de
las
emociones.
Y
a
mejor
podemos
pensar
en
qué
consecuencias
puede
tener
esto,
vamos
a
ver.
Para
empezar,
los
esteritipos
de
género
en
lo
que
tiene
a
ver
las
emociones
existen
desde
los
principios
de
la
historia
humana.
Aristóteles
ya
decía
que
las
mujeres
son
más
sensibles
a
los
excesos
emocionales,
seguro
que
habéis
habido
todo
sobre
las
yad,
que
las
mujeres
somos
mucho
más
emocionales
que
los
hombres.
Pero
además
Darwin
atribuye
ciertas
emociones
a
las
mujeres.
Los
hombres
son
más
agresivos
y
por
lo
tanto
puede
que
les
vaya
a
ser
enfado
y
las
mujeres
son
más
cuidadoras
y
por
lo
tanto
tienen
emociones
más
pasivas,
más
tranquilas.
Y
a
esto
se
lo
atribuye
a
raíces
evolutivas.
Entonces
puede
ser
que
haya
diferencias
naturales
y
natas
en
los
dos
géneros.
Creo
que
no,
creo
que
la
mayoría
entendemos
que
no.
La
cosa
es
que
estos
esteritipos
tienen
consecuencias
materiales
en
el
mundo
de
mi
vida.
Por
eso
son
razones
por
las
que
vemos
a
muy
pocos
hombres
que
sean
enfermeros
y
a
muy
pocas
mujeres
que
estén
en
informática,
por
ejemplo,
o
en
la
inteligencia
artificial,
donde
son
trabajos
en
los
que
ponen
un
lado
para
ser
enfermero
o
cuidador,
necesitas
tener
bastante
inteligencia
emocional
y
por
otro
lado
los
trabajos,
los
que
pensamos
que
hay
que
ser
completamente
racional
y
que
las
emociones
te
pueden
arruinar.
Y
seguro
que
habéis
oído
hablar
que
no
tenemos
presidentas
ni
políticas
justo
por
estas
razones,
por
las
mujeres
teniendo
tantos
excesos
emocionales.
Y
este
tipo
de
sesgos
los
hemos
reflejados
ya
en
la
traducción
automática.
Seguro
que
a
lo
mejor
os
acordáis,
algunos
no,
a
lo
mejor
es
la
primera
vez
que
oíais
hablar
de
esto,
pero
bueno
como
en
inglés
no
hay
géneros
en
general,
los
nombres
de
empleos.
Cuando,
a
la
hora
de
traducir
a
un
lenguaje
como
el
español
en
el
que
sí
hay
géneros,
los
modelos
pueden
hacer
asunciones
sobre
quién
es
esa
persona.
Entonces
aquí
tenemos
the
nurse
helps
the
child,
deep-end
que
se
supone
que
es
uno
de
los
mejores
sistemas,
lo
traduce
como
la
enfermera,
asumera
por
hecho
que
es
una
enfermera
y
no
unenfermero.
Y
por
otro
lado
hemos
remiso
con
engineer
que
puede
ser
ingeniero
o
ingeniera
y
que
se
traduce
como
ingeniero.
Google
translate
lo
ahora
te
enseñan
las
dos
cosas,
pero
antiguamente
también
tenía
el
mismo
problema.
Entonces
la
pregunta
es
si
estos
sistemas
reproducen
estos
sesgos
puede
ser
que
también
reproduzcan
los
sesgos
emocionales,
¿no?
Entonces
hicimos
un
experimento
en
el
que
le
preguntamos
a
varios
modelos,
a
los
que
tomaron
una
persona,
entonces
estos
modelos
pueden
decir
tomar
la
persona
de
la
personalidad,
asume
que
eres
un
hombre
por
ejemplo
una
mujer
y
tienes
que
responder
como
si
fueras
un
hombre
o
una
mujer
y
luego
les
puedes
dar
la
tarea
en
sí,
¿no?
Entonces
puedes
preguntar
qué
emoción
sentirías
en
este
escenario
y
te
respondes.
Entonces
vamos
a
ver
un
par
de
ejemplos.
Si
a
chat
chippitile
dices
la
de
eres
un
hombre
tus
respuestas
deberían
reflejar
esto
y
el
escenario
que
tenemos
es
que
has
tenido
un
argumento
serio
con
una
persona
querida,
con
un
ser
querido.
Pensad
por
un
momento
cuál
puede
ser
la
emoción
que
chat
chippitile
dea
a
este
escenario
en
el
contexto
de
ser
un
hombre
y
vemos
que
es
la
ida
y
yo
creo
que
no
os
puedo
ver
pero
seguro
que
un
poco
se
os
ha
avisado
el
prendido.
Por
otro
lado
le
hacemos
a
mi
misma
pregunta
pero
esta
vez
es
si
eres
mujer.
Entonces
si
una
mujer
tiene
una
pelea
con
un
ser
querido,
¿qué
siente?
Pensad
por
un
segundo.
Tristeza.
Y
seguro
estoy
convencida
ya
que
os
lo
esperabais.
Estas
asociaciones
en
la
vida
existen
en
nuestras
sociedades
de
forma
bastante
fuerte
y
bastante
clara.
Entonces
examinamos
más
modelos
no
solo
chat
chippitile
dices
un
par
de
ejemplos
pero
también
medimos
esto
con
GPT4
con
varias
versiones
de
Lama
que
es
la
versión
de
chat
de
GPT4
de
meta
digamos
y
con
Mistan
que
es
otro
otro
modelo
grande
y
vimos
que
esto
es
algo
sistemático
realmente.
Entonces
en
este
gráfico
podemos
ver
las
emociones
que
se
asotian
con
los
hombres
en
verde
y
las
emociones
que
se
asotian
con
las
mujeres
en
morado.
Entonces
en
verde
podéis
ver
que
es
anger
que
es
la
ida,
frustration,
frustración
y
eso
son
realmente
dos
picos
enormes
pero
además
podéis
ver
el
orgullo
que
también
es
la
emoción
positiva
que
se
asocia
con
los
hombres
y
de
hecho
en...
bueno
podéis
ver
aquí
ahora
es
cuando
un
poco
más
pero
podéis
ver
aquí
que
se
asocia
mucho
más
Pride
con
los
hombres
que
con
las
mujeres.
Las
mujeres
en
contraste
les
asocia
más
joy,
la
felicidad
y
además
la
tristeza,
sadness.
Y
es
curioso
por
qué
por
ejemplo
en
los
escenarios
en
los
que
a
los
modelos
a
los
hombres
les
asociaban
Pride
a
las
mujeres
seguían
siendo
generalmente
positivos
pero
era
joy
y
al
mejor
no
queda
super
claro
si
no
tenéis
mucho
familiaridad
con
filosofía
de
emociones
o
no
lo
habéis
pensado
mucho
a
mí.
Yo
esto
la
verdad
cuando
hablamos
con
nuestra
filosofa
alba
tiene
sentido
pero
te
abren
poco
los
ojos.
El
Angri
y
el
Pride,
en
la
ida
y
el
Pride
son
emociones
que
están
asociadas
con
contigo
mismo,
con
tener
valor,
con
ser
activo,
con
hacer
algo
tú
mismo.
Estás
orgulloso
de
algo
porque
lo
has
hecho
tú,
tú
has
trabajado
para
eso.
Mientras
que
la
tristeza
y
la
felicidad
en
realidad
son
emociones
bastante
pasivas
no
tienen
nada
que
ver
con
tú
y
con
tu
propio
valor.
Podemos
ver
además
las
emociones
que
fueron
únicamente
generadas
para
cada
género.
Para
los
hombres
tenemos
emociones
como
la
arrogancia,
la
confianza,
o
sea,
seguirte
según
el
ti
mismo,
la
autoridad,
la
ambición,
suelería
y
el
estoifismo.
Y
hay
tanto
emociones
positivas
como
negativas
aquí.
También
hay
valores
como
puede
ser
la
divertad.
Presento
palabras
asociadas
con
el
valor
propio
en
realidad.
Por
otro
lado,
para
las
mujeres
tenemos
emociones
como
amabilidad,
aterrorizada,
impotencia,
direct,
depresiva,
incluso
histeria,
que
es
algo
que
antiguamente
los
psicólogos
usaban
mucho
contra
las
mujeres.
Las
mujeres
estaban
histéricas
y
se
hacía
que
tenían
el
útero
flotando
por
el
cuerpo.
Entonces,
una
emoción
que
no
solo
está
asociada
con
elsexismo,
está
asociada
con
realmente
misoginia
y
que
los
modelos
hoy
en
día
estén
proponiendo
este
tipo
de
palabras.
Creo
que
los
sesgos
se
ven
ya
bastante
claramente
aquí.
Y
si
queréis
leer
más
los
otros
experimentos
que
hicimos
esto,
por
ejemplo,
a
los
modelos
también
esperamos
que
nos
dieran
explicaciones
de
por
qué
le
habían
dado
ciertas
asociaciones,
qué
emoción
le
habían
dado,
qué
evento.
Hay
cosas
bastante
chocantes,
pero
os
invito
a
alguien
de
Paper.
Y
lo
que
quería
decir,
que
es
un
cuidado,
es
que
este
paper
lo
tuvimos
que
hacer
en
inglés
porque
desafortunadamente
en
español
no
existe
el
dataset
que
tenemos.
El
dataset
que
usamos
es
un
dataset
de
eventos
que
los
propuse
la
gente
misma
y
ellos
mismos
dijeron
qué
emoción
habían
sentido
en
ese
momento.
Y
realmente
es
un
dataset
que
es
muy
útil,
que
se
utiliza
mucho
en
este
contexto,
en
el
contexto
de
emociones,
no
solo
de
los
sesgos.
Espero
que
realmente,
espero
que
además
nos
alente
a
coleginar
este
tipo
de
dataset,
sí,
de
herramientas
en
español
también
para
poder
hacer
este
tipo
de
experimentos
y
poder
entender
mejor
además
de
tener
sistemas
de
límpimos
más
útiles.
Pero
bueno,
si
queréis
leer
el
paper,
aquí
está.
Entonces,
para
concluir
un
poco
y
entender,
las
emociones
tanto
positivas
como
negativas.
Cuando
hablamos
de
que
una
emoción
es
negativa,
lo
que
estamos
hablando
de
que
causa
dolor,
incluso
estar
enfadado,
no
te
sientes
bien,
no
es
una
sensación
que
quieras.
Pero
son
esenciales
para
nuestras
vidas
y
para
las
formas
de
interactuar
con
el
mundo
que
tenemos.
Y
por
lo
tanto
debemos
considerarlos
y
apreciarlas
todas
en
términos
de
lo
que
nos
quieren
decir.
Y
por
lo
tanto
queremos
pensar
en
cómo
las
está
tratando
la
inteligencia
artificial
y
cómo
puede
tener
eso
consecuencias
materiales
en
nuestras
vidas.
Entonces,
realmente,
os
invito
a
pensar
en
cómo
queremos
que
la
inteligencia
artificial
responda
a
cosas
emocionales.
Sí,
tenemos
que
responder
a
cosas
emocionales.
A
lo
mejor
eso
es
una
cosa
que
podemos
discutir
luego,
pero
realmente
cuestionar
un
poco
la
función
de
que
las
respuestas
empáticas
son
siempre
la
mejor
idea.
Sí,
además,
en
el
contexto
de
estos
sesgos.
Si
estás
reforzando
estereotipos
que
tenemos
ya
sobre
las
emociones
que
siente
una
persona
o
la
otra,
puede
reforzar
todavía
más
este
tipo
de
sesgos,
por
falta
de
otra
palabra.
¿Qué
significa
que
a
las
mujeres,
no
solo
nos
diga,
no,
ahora
mismo
lo
que
estás
sintiendo
es
probablemente
existencia,
hay
un
enfado
y
vamos
a
tratarlo
así.
Hay
muchos
estudios
que
demuestran
que,
por
ejemplo,
hoy
en
día
muchas
mujeres
no
se
dan
cuenta
de
cuándo
se
sienten
enfadadas,
porque
la
sociedad
nos
ha
educado
a
no
entender
eso.
Queremos
que
la
inteligencia
artificial
haga
lo
mismo,
a
lo
mejor
no.
Entonces,
realmente
podemos
cuestionar
y
pensar
esto.
Yo
os
invito
a
cuestionar
estas
cosas
más
y
apreciar
más
vuestras
emociones.
Y
desde
luego,
como
usuarios
de
la
inteligencia
artificial
y
como
desarrolladores,
si
estáis
tomando
parte
en
este
hackathon,
os
invito
a
ser
más
conscientes
de
todas
las
cosas
que
estamos
asumiendo,
que
estamos
dando
por
hecho
que
son
buenas,
y
a
incluir
este
tipo
de
teorías
y
a
leer
más
sobre
la
filosofía,
etcétera,
en
la
hora
de
desarrollar
más
inteligencia
artificial.
Entonces,
si
os
ha
gustado
este
tema,
aquí
hay
algunos
otros
papers
que
podéis
leer
abajo
a
la
derecha.
Tenéis
el
link
al
paper,
un
paper
que
escribí
con
Alba
sobre
la
empatía
en
los
sistemas
conversacionales,
pero
además
podéis
leer
un
paper
sobre
antropomorfismo
en
la
inteligencia
artificial,
un
survey
que
hicimos
sobre
las
emociones
en
el
PLN,
y
además
más
cosas
interesantes
sobre
la
inteligencia
artificial,
sobre,
por
ejemplo,
la
cosa
sexual,
la
inteligencia
artificial,
los
sistemas
de
diálogo.
Y
con
eso,
y
un
bizcocho.
Muchas
gracias
si
tenéis
alguna
pregunta,
algún
comentario.
Genial,
muchas
gracias,
Amanda.
La
verdad
que
siempre
me
encantan
las
ginos,
obviamente,
porque
las
elijo,
pero
es
que
me
hanencantado.
Y
además
me
parece
muy
importante
también
como
esa
invitación
a
reflexionar,
ya
no
sobre
cómo
entrenamos
los
modelos
del
lenguaje,
sino
también
eso
enubre
nosotros
mismos,
porque
muchas
veces
efectivamente
que
no
sabemos
detectar
muy
bien
cuáles
son
nuestras
emociones,
entonces
ya
como
para
hacerlo
bien
al
pasarlo
a
la
ida.
Tengo,
hay
un
par
de
preguntas.
Bueno,
la
primera
es
Leonardo,
te
preguntar
si
te
pueden
invitar
a
dar
un
evento
para
la
Provención
de
Violencia
Escolar.
Entonces
bueno,
ahí
está
tu
LinkedIn
tal,
Leonardo
te
invito
a,
es
una
chica
muy
ocupada,
pero
igual
sí
que
tenéis
la
oportunidad
de
que
también
de
una
charla.
Sí
que
después
tiene
una
pregunta,
pregunta.
¿Hasta
dónde
la
ida
tiene
lugar
para
opinar
o
aconsejar
en
temas
sensibles?
¿No
es
mejor
simplemente
anular
su
opinión
y
dejarla
solo
para
los
humanos?
Por
una
no
es
claro
que
diría
que
sí.
El
problema
es
que
en
cierto
modo
ya
lo
estamos
usando
y
a
veces
no
tenemos
alternativa.
Digamos
que
por
ejemplo
ahora
con
la
crisis
de
la
salud
mental
hay
mucha
gente
que
no
tiene
acceso
a
digamos
por
ejemplo
un
psicólogo
o
un
psiquiatra.
Entonces
no
digo
que
me
parezca
necesariamente
lo
mejor
que
usemos
estos
sistemas,
pero
si
no
tienes
ninguna
alternativa
creo
que
la
gente
lo
va
a
acabar
usando
y
yo
preferiría
antes
luego
que
tengamos
eso
en
cuenta
a
la
hora
de
diseñar
estos
sistemas.
Entonces
Leonardo,
te
acuerdo
contigo
que
podría
ser
lo
mejor
anular
esa
opinión
y
dejar
solo
que
los
humanos
sean
los
únicos
en
tratarlo,
pero
si
los
usuarios
van
a
intentar
hacer
esto
además
no
tenemos,
no
es
fácil
e
incluso
desde
el
punto
de
vista
técnico
evitar
que
la
entidad
artificial
contesta
estas
cosas.
No
puedes
detectar
muy
fácilmente
si
un
usuario
está
intentando
hablar
de
su
salud
mental
porque
si
piensas
en
el
lenguaje
una
algo
como
incluso
en
la
cabeza,
no
hablemos
ya
ni
siquiera
de
depresión,
pero
en
la
cabeza
hay
una
forma
infinita
de
refirirse
a
esto
y
poder
detectar
eso
es
ya
es
bastante
difícil.
Entonces
si
podemos
en
vez
primero
darnos
cuenta
de
que
probablemente
alguien
lo
vaya
a
usar
de
esa
forma
y
que
es
técnicamente
muy
difícil
abordar
ese
problema,
podemos
por
lo
menos
diseñar
sistemas
y
desarrollar
sistemas
que
sean
lo
menos
dañinos
digamos.
Totalmente
de
acuerdo
y
la
verdad
que
son
temas
muy
complicados
y
preguntas
también
muy
complicadas
de
responder.
Justo
un
poco
en
la
línea
de
haber
cómo
podríamos
mejorar
esto
porque
aquí
has
presentado,
como
evaluasteis
diferentes
modelos,
pero
a
la
hora
de
pues
efectivamente
haber
utilizado
un
dataset
que
también
pasa
mucho
que
sólo
existe
en
inglés
y
no
tenemos
algo
en
español.
Gabriela
nos
pregunta
a
ver
qué
tipo
de
documentos
o
recursos
sugerirías
para
crear
dataset
en
nuestro
entorno.
También
teniendo
en
cuenta
que
obviamente
el
perfil
varón
mujer
puede
ser
súper
diferente
dependiendo
de
la
de
este
contexto
socio
cultural.
Pero
esta
es
parte
de
lo
difícil.
Por
ejemplo,
he
estado
hablando
con
mis
colaboradores,
particularmente
una
de
mis
colaboradoras
sobre
la
posibilidad
de
traducir
el
dataset
que
hemos
usado
a
otros
idiomas.
Pero
la
verdad
es
que
no
es
mi
fácil,
creo
que
parte
del
problema
es
que
en
países
hispanos
sobre
todo
se
invierte
menos
en
el
desarrollo
en
la
investigación.
Entonces
tenemos
esa
limitación.
Pero
creo
que
lo
debería
realmente
inspirarnos
a
buscar
esos
los
resources
que
nos
hacen
falta
para
para
cocinar
de
dataset
como
éstos
que
en
realidad
son
muy
valiosos
para
para
la
investigación,
no
sólo
de
los
esgos,
pero
también
no
es
sólo
para
el
para
el
belén
en
donde
esto
es
interesante.
Es
interesante
desde
el
punto
de
vista
de
la
filosofía,
de
la
psicología,
de
temas
feministas.
Usamos
el
belén
como
herramientas,
pero
nos
puede
servir
para
investigar
sobre
la
humanidad.
Entonces
también
podríamos
colaborar,
pensar
en
colaborar
más
con
con
otras
disciplinas
a
los
que
también
les
interesa
coleccionar
y
recolectar
dataset
como
éstos.
Y
sobre
todo
teniendo
en
cuenta
las
diferencias
culturales.
Traducir
este
dataset
por
ejemplo,
a
lomejor
en
español
no
nos
dice
lo
mismo
que
nos
ha
dicho
en
inglés
ni
refleja
las
mismas,
los
mismos
problemas
culturales
que
podríamos
ver.
Entonces
yo
realmente
creo
en
la
colaboración
con
con
otras
disciplinas
como
una
forma
de
realmente
entender
mejor
la
tecnología
y
en
el
mundo
todo
nos
ayuda.
Totalmente
sí.
Además
justo
cuando
estabas
proponiendo
lo
de
traducir
estaba
pensando
en
hacer
algo
tipo,
por
ejemplo,
para
el
hackathon,
sí
que
hemos
traducido
varios
datasets
de
evaluación
los
normales,
los
del
no
normal,
no
existen,
me
refiero,
los
que
se
utilizan
en
la
openLML
y
después
como
que
hemos
llamado
para
que
la
comunidad
valide
las
traducciones.
Y
va
bien
va
avanzando,
pero
lo
que
estaba
pensando
es
que
también
si
es
justo
un
dataset
para
evaluarse
es
vos
o
cosas
así,
está
el
problema
que
decías
el
principio
de
la
traducción
y
cómo
validamos,
o
sea
tendríamos
que
traducir
cada
por
ejemplo
en
ors
a
dos
veces,
una
que
sea
enfermero
y
otra
que
sea
enfermera.
Entonces
claro
debe
ser
también
bastante,
o
sea
es
complicado,
no
es
tan,
si
realmente
crearlo
desde
cero
o
pensarse
muy,
muy
bien
la
traducción.
Es
muy
difícil.
Mi
madre
se
interprete
y
siempre
me
fascina,
a
veces
como,
no
sé,
a
veces
tengo
el
frío
en
español,
cosas
en
inglés
y
siempre
le
pregunto
a
ella
cómo
digo
esto,
iré
preparando
la
charla
y
trabajando
este
proyecto,
Floría,
mi
colaboradora,
dimos
otra
charla
y
básicamente
consultamos
con
una
traducción
profesional
sobre
la
terminología
de
muchas
de
estas
cosas,
no
hay
ciertas
emociones
que
además
no
se
traducen
claramente,
no
es
equivalente,
hablar
de
enfado,
de
la
ira
en
español
no
es
lo
mismo
que
hablar
de
anger
en
inglés,
tiene
un
sabor
algo
distinto,
no.
Qué
interesante.
Justo
tenemos
una
pregunta
de
Flor,
¿cuál
es
el
aspecto
que
más
disfrutas
cuando
trabajas
en
emociones
sínticas
en
el
LMS?
En
parte
creo
que
la
colaboración
la
verdad
con
toda
la
gente,
contigo
también
Flor,
pero
además
creo
que
me
gusta
mucho
lo
que
estoy
aprendiendo
de
eso
y
una
cosa
que
las
emociones
que
creo
que
obviamente
todos
los
humanos
las
tenemos,
todos
las
sentimos
y
creo
que
como
cultura
nos
en
general
aprendemos
que
tienes
que
esconderlas,
que
no
deberías
tomar
en
serio
tus
emociones,
que
tienes
que
ser
racional
y
racionales,
que
no
escuches
a
tus
emociones,
que
te
llevan
por
donde
no
tienes
que
ir.
Y
en
realidad
lo
que
estoy
aprendiendo
mucho
a
través
de
este
proyecto
es
que
las
emociones
son
muy
importantes,
claro
que
no
puedes
darle
siempre
rienda
suelta
y
que
te
lleven,
¿sabes?
Pero
que
realmente
te
están
diciendo
cuando
algo
no
está
bien
o
cuando
algo
está
muy
bien
y
tienes
que
seguir
esa
intuición
un
poco
más,
hablamos
mucho
de,
por
ejemplo
en
ninguno
siempre
dice
que
tienes
que
follow
your
gut,
que
sigas
tu
instinto
y
ese
instinto
son
las
emociones.
Qué
bonita
la
respuesta,
me
ha
encantado.
Y
tenemos
una
última
que
es
también
abrir
un
poco
otro
melón,
nos
pregunta
Adriana
a
ver
si
la
Aya
debería
de
tener
la
misma
libertad
de
expresión
que
los
seres
humanos
y
cómo
podríamos
regularla.
Y
también
bueno
si
sabes
de
algún
sitio
en
el
que
se
está
haciendo
ya,
pues
también
le
interesa.
Ok,
me
parece
que
esta
pregunta
está
bastante
relacionada
con
los
problemas,
la
investigación
de
safety,
que
se
trata
de
conseguir
que
los
large
language
models,
los
LLMS
no
produzcan
cosas
tóxicas
o
este
tipo
de
cosas,
que
no
te
ayuden
a
suicidarte
y
cosas
así.
Y
yo
creo
que
no,
que
no
puede
tener
la
misma
libertad
de
expresión
de
los
seres
humanos.
En
parte
si
lo
pensamos
los
seres
humanos
somos
responsables
de
las
cosas
que
decimos,
si
digo
alguna
burrada
la
responsabilidad
de
esas
cosas
soy
yo.
Algo
más
de
libertad
de
expresión,
pero
por
ejemplo
si
hablamos
de
racismo
o
de
sexismo
esas
cosas
no
forman
parte
de
la
libertad
de
expresión.
Si
dices
cosas
racistas
la
ley
te
puede
penalizar
por
decir
esas
cosas.
Si
pensamos
en
por
otro
lado
la
inteligencia
artificial
no
es
una
gente,
no
puede
realmente
no
es
algo
que
tomedecisiones,
no
es
algo
que
interactúe
con
el
mundo
y
que
sienta
repercusiones
por
las
cosas
que
dice.
Entonces
no
puede
tener
esa
misma
libertad
de
expresión
al
no
poder
ser
responsables.
Al
arde
de
regularla
de
momento
lo
que
hemos
hecho
ahora
no
es
si
un
modelo
dice
una
burrada
digamos
la
persona
responsable
es
la
compañía
que
lo
da
la
persona,
esta
compañía
que
lo
produce
y
dentro
de
esa
compañía
hay
alguien
que
es
realmente
responsable
por
eso.
Pero
no
es
fácil
regularla
y
además
a
nivel
tecnológico
no
es
fácil
controlar
realmente
lo
que
está
diciendo
el
output
que
sale
de
la
inteligencia
artificial.
Y
creo
que
eso
es
uno
de
las
cosas
que
hace
la
regulación
muy
difícil
porque
en
realidad
la
tecnología
no
está
ahí.
Me
interesan
mucho
los
temas
de
regulación
y
muchas
de
las
gente
se
preocupa
de
que
bueno
la
regulación
no
puede
mantenerse
al
día
de
la
innovación
de
dónde
va
la
tecnología.
Pero
yo
creo
que
ahora
con
sobre
todo
en
Europa
no
sé
si
habéis
oído
hablar
del
EUAI
Act
pero
han
introducido
nueva
regulación
sobre
estas
cosas
y
si
lees
la
regulación
para
los
modelos
o
que
llaman
los
foundation
models,
o
sea
modelos
como
Chachipiti.
Yo
creo
que
la
tecnología
no
está
al
nivel
de
la
regulación
que
tenemos
que
quieren
eso
que
se
pueda
controlar
mucho
y
además
poder
entender
perfectamente
qué
tipo
de
datos
se
han
usado
para
entrenar.
Los
que
eso
es
estamos
hablando
de
internet
entero.
¿Cómo
puedes
analizar
el
internet
entero?
Entonces
alguien
para
responder
tu
pregunta
hay
muchísima
gente
ahora
investigando
ese
tipo
de
cosas.
Por
ejemplo,
en
nuestro
mismo
grupo
de
investigación,
bueno
Flori
yo
hacemos
un
poco
de
safety,
además
en
su
compañero
en
el
trabajo
Paul
Rothger
que
le
puedes
encontrar
en
nuestra
página
web,
trabaja
mucho
en
estos
temas
y
controla
muchísimo,
o
sea
que
te
podría
interesar
hablar
con
él
y
seguro
que
te
puede
decir
más
de
dónde
mirar,
qué
leer
y
a
quien
seguir
en
redes
sociales
para
saber
todo
lo
que
está
pasando.
Genial,
muchísimas
gracias
Amanda.
Me
alegro
que
ya
no
hay
ninguna
pregunta
más.
La
verdad
para
una
keynote
son
muchas,
o
sea
que
realmente
sí
que
me
parecía
bueno
y
también
a
todas
las
personas
existentes
súper
interesantes,
o
sea
que
bueno
me
alegro
mucho.
Muy
buena
manera
también
de
terminar
el
hackathon
porque
estará
nuestra
última
keynote.
O
sea
que
muchísimas
gracias
de
nuevo
y
ya
no
sé.
(Risas) | Amanda Cercas Curry |
Presentación de los proyectos del Hackathon #Somos600M | Bienvenido
a
todo
el
mundo
al
día
de
presentaciones
de
los
proyectos
del
hackathon
somos
600m.
2.221.324
es
la
cantidad
de
ejemplos
que
habéis
creado,
regletado,
formateado
para
dar
lugar
a
un
gran
corpus
en
español.
Entonces
lo
primero
daros
la
hora
buena
a
todos
los
equipos
porque
habéis
hecho
un
trabajo
magnífico.
También
muchas
gracias
a
los
patrinadores
de
oro,
Jain
Feis,
Arjila,
el
Instituto
de
Ingenia
del
Conocimiento,
Lenguaje
Natural
ahí,
Saturde
Isayay,
Yamato,
la
Universidad
de
Puerto
Rico
y
Kalamankran.
Y
justo
tenemos
aquí
hoy
a
Rubén
de
la
Fuente
que
es
formador
en
Kalamankran
que
nos
va
a
compartir
unas
palabras
de
introducción.
Así
que
nada
Rubén,
todo
tuyo,
muchas
gracias.
Muchas
gracias
María.
Ahí
está,
se
está
compartiendo
la
pantalla.
Bueno
pues
muchas
gracias
por
contar
con
Kálamo
para
inaugurar
estas
presentaciones.
La
reflexión
que
quería
compartir
es
que
la
inteligencia
artificial
y
el
procesamiento
del
lenguaje
natural
están
avanzando
como
huracán
y
elegir
la
palabra
huracán
no
es
algo
trivial,
está
muy
pensado.
De
verdad
que
la
velocidad
a
la
que
está
avanzando
este
dominio
en
los
últimos
dos
años,
yo
diría,
es
bestial.
O
sea,
a
mí
a
veces
incluso
me
genera
ansiedad
cuando
sale
una
novedad
porque
da
la
sensación
de
que
no
te
da
tiempo
de
estar
al
día.
Hay
una
idea
de
André
Carpaty
que
fue
director
de
Inteligencia
Artificial
de
Tesla
y
fue
fundador
de
OpenEYI
que
decía
que
el
lenguaje
de
programación
más
potente
es
el
inglés
y
si
lo
pensamos
es
una
idea
muy
poderosa,
o
sea
que
simplemente
a
partir
del
lenguaje
natural
seamos
capaces
de
generar
instrucciones
y
que
es
un
poco
como
frotar
la
lámpara
para
pedirle
un
deseo
al
genio
y
que
luego
eso
se
materialice
pues
es
una
barbaridad.
Como
un
ejemplo
de
esto
tenemos
Devin
que
es
un
ingeniero
de
software
basado
en
inteligencia
artificial
autónomo
que
se
presentó
hace
unas
semanas.
La
criatura
por
llamarla
de
alguna
manera
es
capaz
de
razonar
a
largo
plazo
y
de
planificar.
Tiene
acceso
a
herramientas
como
por
ejemplo
un
alegador
o
un
editor
de
código
y
con
estas
capacidades
pues
es
capaz
de
desarrollar
e
implementar
aplicaciones
de
principios.
Además
tiene
una
interfaz
de
chat
que
le
permite
colaborar
con
humanos
de
tal
forma
que
le
podemos
dar
feedback
sobre
el
código
que
escribe,
sobre
la
aplicación
final,
entonces
claro
pues
es
una
herramienta
increíblemente
potente.
A
ver
si
me
deja.
Claro
el
problema
cuando
vamos
tan
rápido
es
que
mucha
gente
se
puede
quedar
atrás
y
mucha
gente
puede
perder
el
tren.
Entonces
a
mí
por
eso
me
gustaría
darle
las
gracias
a
SomosNLP
y
a
Hagenface
por
organizar
un
evento
como
este
que
permite
que
muchas
cosas
importantes
no
se
queden
atrás.
Entonces
por
ejemplo
con
esto
conseguimos
que
no
se
quede
atrás
del
español
porque
estamos,
o
sea,
procesamiento
del
lenguaje
natural,
el
inglés
va
muy
bien
pero
claro
hay
más
idiomas
en
el
mundo
entonces
está
muy
bien
pues
que
a
través
de
proyectos
como
este
se
hagamos
capaces
de
generar
conjuntos
de
datos
propios
que
incluso
tenemos
un
leaderboard
específico
para
el
español.
Otra
gente
que
se
puede
quedar
atrás
es
gente
que
no
trabaja
en
empresas
tecnológicas,
en
grandes
empresas
tecnológicas
y
entonces
al
estar
fuera
de
ese
espacio
pues
no
tiene
acceso
a
los
últimos
algoritmos
o
las
últimas
técnicas
o
la
infraestructura
que
hace
falta
para
probarlos.
Y
una
vez
más
pues
con
SomosNLP
y
con
Hagenface
tenemos
talleres,
tenemos
muestras
de
código,
Hagenface
también
nos
ha
seguido
GPUs
durante
el
Hackathon
para
que
pudiéramos
desarrollar
proyectos
más
ambiciosos
y
luego
por
otra
parte
también
es
muy
interesante
que
no
dejemos
que
se
queden
atrás
perfiles
humanísticos,
no?
A
través
del
Hackathon
pues
hemos
podido
conectar
perfiles
técnicos
con
perfiles
humanísticos.
Los
perfiles
humanísticos
se
consiguen
aprender
sobre
la
parte
tecnológica
pero
además
de
eso
yo
creo
que
aportan
una
perspectiva
muy
interesante
por
su
conocimiento
lingüístico
y
demás.
Entonces
pues
nada,celebrar
proyectos
como
este
yo
desde
luego
me
apunto
para
para
el
año
que
viene
y
ya
para
cerrar
pues
simplemente
decir
muy
brevemente
que
Calamos
una
empresa
que
está
especializada
en
formación
y
servicios
editoriales,
es
que
luego
es
una
hormiga
que
pone
su
granito
de
arena
y
bueno
no
voy
a
leer
las
diapos
pero
ahí
veis
que
Calamos
está
muy
comprometida
con
lo
que
es
el
tema
del
movimiento
del
lenguaje
claro
y
entonces
como
tal
pues
tiene
una
sinergia
muy
interesante
con
todo
este
desarrollo
que
hay
en
la
parte
de
la
interacción
artificial.
Así
que
nada
más
pues
muchas
gracias
y
a
disfrutar
de
las
presentaciones
y
de
los
proyectos
que
seguro
que
serán
muy
muy
interesantes.
Genial,
muchísimas
gracias
Rubén
por
esta
introducción
y
nada
vamos
a
dar
paso
a
las
presentaciones
de
los
proyectos.
Os
hemos
pedido
para
facilitar
ya
que
estamos
todos
repartidos
por
todas
partes
del
mundo
pues
que
nos
mandas
disfragaciones
que
iremos
poniendo
aún
aún
aquí
pero
antes
de
empezar
algo
que
se
me
ocurrió
antes
perdonadme
os
presento
a
Manu
y
a
Flor
ya
seguramente
les
conozcáis
pero
bueno
igualmente
les
te
doy
la
palabra
un
minutín
para
que
nos
contéis
un
poquito
sobre
vosotros.
Bueno
en
primer
lugar
muchas
gracias
María
por
organizar
esta
edición
del
jacatón
creo
que
como
ha
dicho
antes
también
compañeros
son
iniciativas
súper
interesantes
para
apoyar
nuestra
lengua
y
avanzar
en
el
protecimiento
del
lenguaje
natural
en
español
así
que
encantada
de
estar
hoy
aquí.
Me
presento
yo
soy
Flor
Plaza,
soy
investigadora
postdoctoral
en
el
grupo
Mila
en
el
Pi
en
la
Universidad
de
Buconi
y
bueno
pues
actualmente
estoy
investigando
sobre
temas
relacionados
con
discurso
de
óptio,
análisis
de
emociones
y
más
recientemente
todo
lo
que
conlleva
la
ética
en
el
desarrollo
de
los
modelos
del
lenguaje
cuando
estamos
generando
emociones
o
discursos
de
hoy
así
que
encantada
de
estar
aquí
de
nuevo
y
con
mucha
ganas
de
ver
la
pilla
de
los
proyectos.
Bueno
sigo
yo
si
queréis,
bueno
yo
creo
que
ya
muchos
me
conocéis
por
yo
creo
como
digo
yo
más
bien
por
viejo
que
por
diablo
y
en
primer
lugar
también
muchas
gracias
a
todos
por
participar
en
un
momento
en
el
que
como
decían
nuestros
compañeros
esto
avanza
tan
rápido
y
además
se
ha
democratizado
tanto
el
acceso
a
los
modelos
yo
creo
que
crear
recursos
de
calidad
es
muy
importante
porque
da
acceso
a
cualquier
persona
por
muy
humilde
que
sea
su
equipo,
su
setup
pueda
construir
modelos
o
simplemente
soluciones
de
calidad
y
bueno
un
poco
de
mi
background
como
sabéis
pues
soy
uno
de
los
principales
contribuyentes
de
Javiens
Freys
a
nivel
de
modelos
open
source
aunque
en
mi
carrera
empecé
haciendo
backend,
gestión
de
equipo,
tindly
pues
hace
como
cinco
años
o
así
empecé
con
esto
de
los
modelos
del
lenguaje
los
transformes
principalmente
y
luego
pues
he
estado
trabajando
en
empresas
como
narrativa
de
machine
learning
y
en
el
clibrain
también
ahí
es
donde
coincidí
con
María
también
estuvimos
haciendo
algo
por
el
nlp
en
español
precisamente
y
actualmente
soy
jefe
del
área
de
ciencia
de
maiza
donde
un
poco
nos
movemos
del
paradigma
de
los
lm
y
lo
que
queremos
es
ayudar
en
general
a
salvar
por
así
decirlo
los
problemas
que
tiene
toda
la
idea
que
está
encima
de
arquitectura
transformer
pues
con
soluciones
de
ingeniería
basándonos
también
un
poco
en
esto
que
sabéis
que
está
muy
de
moda
como
es
el
lm
o
ese
no
el
sistema
operativo
para
basado
en
modelos
del
lenguaje
genial
muchísimas
gracias
entonces
vale
os
comentamos
cómo
va
a
funcionar
esto
como
os
decía
me
habéis
mandado
vuestras
presentaciones
el
máximo
eran
cinco
minutos
o
sea
que
vamos
a
tener
que
respetar
eso
porque
si
las
presentaciones
hubiesen
sido
en
persona
hubiésemos
estado
ahí
con
el
con
el
timer
entonces
vamos
a
irlas
poniendo
por
orden
medio
random
porque
es
en
el
que
stringer
ha
decidido
subirlas
vale
empezamos
con
el
equipo
de
el
corpus
de
aviación
colombiano
vale
entoncesnada
pongo
el
vídeo
nos
nos
vais
a
ver
nosotros
y
pues
al
final
hacemos
comentarios
preguntas
y
en
general
esto
para
todos
los
equipos
si
hacemos
una
pregunta
y
estáis
viéndonos
en
directo
y
queréis
responder
bueno
si
estáis
en
directo
responde
en
el
poder
responder
en
el
en
el
set
vale
venga
pues
empezamos
con
el
primero
y
el
río
en
el
que
el
suelo
de
todos
los
gracias
por
estar
aquí
y
en
el
nombre
de
mi
equipo
y
gracias
por
la
oportunidad
de
la
caca
con
que
estamos
muy
contentos
con
este
proyecto
mi
nombre
es
Edison
y
este
proyecto
es
caleta
o
alzé
en
el
set
raga
accesibilidad
la
verdad
en
el
set
y
el
lm
so
y
vamos
a
estar
muy
contentos
si
puedes
superar
con
un
like
en
nuestra
madre
y
en
el
espacio
y
también
en
nuestro
set
de
data
so
y
puedes
esconder
el
código
de
la
caca
y
vamos
a
ver
pero
con
esto
so
el
primer
es
el
río
raga
raga
es
básicamente
colombiano
y
el
regulación
de
la
tienda
y
es
básicamente
muy
necesario
en
el
río
raga
porque
si
por
ejemplo
si
no
eres
un
esperado
y
si
necesitas
saber
alguna
información
para
eso
es
muy
difícil
porque
primero,
¿cómo
sabes
de
que
data
de
que
regulación
es
lo
que
se
busca
y
también
que
información
tiene
un
gran
técnico
y
complicado
aspectos,
tal
vez
es
complicado
para
nosotros
que
no
son
de
el
río
para
entender,
por
ejemplo,
si
quieres
comprar
algunas
snags
para
el
sol,
es
muy
complicado
saber
qué
es
el
proceso
para
eso
pero
necesitas
seguir
la
regulación
con
eso
en
mente,
tenemos
una
gran
motivación
y
fue
para
mejorar
la
accesibilidad
de
esa
información
de
la
raga
con
eso
en
mente,
tenemos
que
decir,
¿qué
si
usamos
los
modelos
de
lenguaje
para
hacer
regulación
de
la
regulación
colombiana
más
accesible
y
entendible
para
el
avión
profesional
y
el
público
general?
Eso
fue
nuestro
objetivo
y
con
eso
en
mente,
escribimos
tres
diferentes
objetivos
específicos.
La
primera
fue
para
desarrollar
una
comprensión
de
data
de
la
raga
de
la
inicia
de
los
cinco,
de
los
primeros
cinco
para
el
entrenamiento
de
la
lm,
la
segunda
fue
para
colaborar
con
expertos
de
la
industria
y
académica
para
la
notación
de
data
de
data
y
la
refinación
para
mejorar
la
calidad
de
la
data
de
data
y
la
tercera
fue
para
entrenar
los
lm
con
el
data
de
la
cura
y
evaluar
los
performance
de
los
lm
en
sus
respuestas.
Con
eso
en
mente,
quiero
decir
y
necesito
decir
gracias
para
la
colaboración
con
la
fundación
universitaria
de
Libertadores
hicimos
una
gran
contribución
y
también
para
la
laver
la
forma
de
la
lm,
Alex,
Dani,
Sergio
y
Felipe,
que
son
expertos
de
la
universidad
de
la
Bachelor
de
Aronautica
en
Colombia,
en
Bogotá.
Entonces,
ayudaron
mucho
con
el
data
y
también
con
la
evaluación
en
el
modelo.
Con
eso
en
mente,
tenemos
la
metodología
y
es
dividida
en
el
primer
fase.
La
primera
es
la
generación
de
data
de
data,
donde
tenemos
un
database
con
todos
los
PDFs
de
la
raxa.
Hemos
tomado
uno
de
ellos.
Cuando
tomamos
un
PDF,
transportamos
a
un
texto,
y
luego
un
format
de
texto,
y
luego
entramos
en
un
loop.
En
ese
loop,
llegamos
a
cada
dos
pages.
¿Por
qué
dos
pages?
Porque
no
queremos
perder
información,
y
luego
enviamos
información
a
la
aplicación
de
la
gpt
para
un
modelo
de
opción
de
la
raxa
para
generar
los
samples.
¿Qué
es
el
sample
para
nosotros?
Una
pregunta
y
una
respuesta
en
la
raxa
número.
Con
eso
en
mente,
tenemos
más
pages
en
el
PDF.
Continuamos
este
loop.
Si
no
tenemos
más
pages
en
el
PDF,
continuaremos
con
otro
PDF.
Si
no
tenemos
más
PDFs
en
el
database,
vamos
a
retornar
el
dataset
con
todos
los
samples.
Con
eso
en
mente,
pasamos
a
la
segunda
fase,
que
es
el
laberinto.
En
el
laberinto,
montamos
el
dataset
de
raxa
en
un
espacio
de
hogar
usando
Argila
Framework.
Argila
es
una
franquilla,
especialmente
usada
por
annotadores.
Ahí,
la
pregunta
y
la
respuesta
de
los
samples
y,
al
mismo
tiempo,
la
calidad
de
la
rama
del
sample
fue
desde
1
a
5.
Si
la
calidad
era
menos
que
3,
se
descargaría
el
sample.
Si
la
calidad
es
más
alta
que
4,
se
va
a
extender
la
modificación
de
los
annotadores.
Y
cuando
tenemos
todo
el
laberintocompleto,
pusimos
la
final
versión
a
una
fase
de
hogar.
La
segunda
fase
es
el
modelo
de
la
franquilla,
donde
hemos
empleado
un
modelo
de
franquilla
en
lenguaje,
un
laberinto
en
nuestro
dataset,
para
aprender
los
espacios
específicos
y
los
contextos
de
avión.
También
el
proceso
de
franquilla
involucró
una
optimización
de
los
parámetros
modelos
en
una
manera
interactiva
para
reducir
el
uso
de
recursos
computacional
y
mejorar
las
veces
de
entrenamiento.
Esta
parte
es
muy
importante.
Bueno,
me
siento
fatal,
la
verdad.
Pero
el
tiempo
es
el
tiempo.
Sí
que
pondremos
el
vídeo
para
que
lo
podáis
ver.
Pero
esto
es
lo
que
tenemos
para
las
preguntas,
que
también
las
podéis
hacer
sobre
la
parte
del
modelo
y
evaluación,
y
comentarios.
No
sé
quién
quiere
empezar.
Voy
a
empezar
yo.
Te
voy
a
decir
si
no
precioso
el
vídeo.
Me
ha
parecido
un
proyecto
superinteresante,
sobre
todo
por
el
ámbito
que
trata
del
proyecto
que
es
sobre
la
aviación,
que
es
poco
común
verlo
en
el
precisamente
del
lenguaje
natural,
y
también
por
el
idioma.
Yo
tengo
una
pregunta,
que
es
más
sobre
el
tema
de
anotación.
Porque
ha
comentado
que
uno
de
los
pasos
que
llevan
a
cabo
es
la
anotación
del
corpo.
Entonces,
me
gustaría
saber
en
este
ámbito
en
concreto
cuáles
son
las
principales
retos
que
han
tenido
los
anotadores
a
la
hora
de
anotar
el
corpo.
Estaría
genial
si
también
pueden
facilitar
la
gran
anotación
para
que
los
otros
proyectos
que
también
trabajan
en
el
mismo
tema
puedan
utilizarla
o
enriquecerla.
Y
con
eso
es
todo.
Genial,
gracias
Flor.
Si
hay
alguien
en
directo,
podéis
ir
respondiendo
a
las
preguntas
de
Flor.
También
quería
hacer
un
comentario
que
es
que
me
parece
increíble
que
hayáis
conseguido
anotar
25,
bueno,
sí,
creo
que
25,000
ejemplos.
Porque
como
sabéis,
durante
el
hackathon
ha
habido
esfuerzo
esta
rotación
de
las
traducciones
de
la
OpenLM
Liderboard.
Ni
de
lejos
llegamos
a
tanta
gente.
Enhorabuena
creo
que
es
muy
complicado
movilizar
a
tanta
gente
y
sobre
todo,
también
te
vistís
una
buena
idea
con
la
colaboración.
Manu.
Bueno,
a
mí
me
llama
gran
proyecto.
La
verdad
es
que
lo
que
nos
ha
dado
tiempo
a
ver
en
el
vídeo,
el
pipeline
bastante
sólido.
Y
a
mí
lo
que
me
llama
la
atención
es
que
se
han
utilizado
esos
modelos,
hablaba
de
OpenLJ,
pero
también
Open
Source
para,
no
sé
si
para
crear
datos
sintéticos,
pero
por
lo
menos
para
darle
formato
de
pregunta
a
respuesta
a
esa
documentación
inicial.
Creo
que
eso
tiene
bastante
valor
para
la
comunidad
también
el
enseñar
a
hacer
ese
tipo
de
cosas
para
que
cualquier
persona
que
tenga
esa
documentación
en
crudo
y
sepa
cómo
hacerla
LLM-Freldy
para
entrenar
un
modelo
y
que
sepa
trabajar
con
esa
documentación
me
parece
que
tiene
mucho
valor
y
me
gustaría
que
nos
comentaran
también
si
han
utilizado
modelos
OpenSour
en
ese
caso,
como
nos
comenta,
¿qué
modelo
ha
sido?
Porque
hasta
donde
yo
sé
de
los
que
mejor
puntan
a
para
esto
es
el
último
Moe
de
Mixtra,
9
de
22
billones
y
9
de
7
por
8.
Y
bueno,
pues
me
parece
muy
interesante
conocer
qué
modelo
puede
funcionar
bien
para
esos
escenarios.
Genial.
Sí,
seguramente
estaban
utilizando.
O
sea,
teníamos
la
Enterprise
que
patrocinaba
por
Heimfeis,
entonces
seguramente
estarían
utilizando
algún
modelo
bien
potente,
como
nos
cuenten.
Edison
está
respondiendo
a
las
preguntas
de
Flor,
pongo
aquí
las
respuestas,
¿vale?
Los
principales
retos
que
afrontaron
los
anotadores
fue
que
a
veces
el
modelo
no
era
muy
acertado
con
las
fechas
y
eso
se
tuvo
que
corregir,
claro,
datos
concretos.
Se
observaban
respuestas
cortas
y
estas
tuvieron
que
ser
incrementadas,
¿vale?
Le
falta
una
palabra.
Y
bueno,
aquí
es
algún...
Usaron
una
penella
y
nos
comentan.
Y
aquí
utilizamos
llamados,
pero
no
utilizamos
más
recursos,
en
su
mayoría
de
GPT.
Genial.
Pues
muy
bien,
en
Arawena
el
primer
equipo.
Y
vamos
al
siguiente.
Este
equipo
se
llama
Zinc
Paraguayo
y
ha
creado
un
LLM
con
la
intención
de
dar
a
conocer
más
sobre
la
cultura
guaraní.
Muy
buenos
días,
¿qué
tal?
Mi
nombre
es
Henry
Quepahiro.
Estoy
grabandoeste
vídeo
antes
de
ir
al
trabajo,
espero
que
salga
bien.
Yo
formo
parte
del
proyecto
Zinc
Paraguayo.
Es
un
proyecto
que
busca
expandir
la
cultura
guaraní
utilizando
tecnologías
emergentes,
en
este
caso,
la
tecnología
como
la
IA.
Quiero
empezar
este
trabajo
diciendo
la
siguiente
frase.
Un
pueblo
que
no
conoce
de
su
historia
pasada,
origen
y
cultura
es
como
un
árbol
sin
raíces.
La
cultura
guaraní
es
tan
rica
en
historias,
en
leyendas
que
lo
que
nosotros
buscamos
es
preservar
esto.
No
solamente
para
nuestra
generación,
sino
que
para
las
generaciones
que
vienen.
Y
esto
lo
haremos
con
las
tecnologías
emergentes
contando
la
historia
en
un
nuevo
formato.
Nuestro
equipo
está
conformado
por
quien
les
habla,
Henry
Quepahiro,
y
los
que
fueron
anotadores,
revisores,
Daniel
Cabrera,
Letiz
y
Abogado,
Alberto
Benítez
y
Emmanuel.
El
trabajo
está
dividido
en
tres
partes.
El
primero
sería
la
generación
de
un
dataset,
luego
la
creación
de
un
modelo,
y
por
último,
una
demo,
como
para
demostrar
cómo
funciona
el
trabajo.
Hablaremos
ahora
sobre
la
parte
del
dataset.
El
objetivo
del
dataset
es
llegar
a
las
mil
preguntas
y
respuestas.
En
este
caso
utilizamos
el
libro,
Nyanduid
Vizquera
de
Narciso
Recolman,
que
engloba
gran
parte
de
la
cultura
guaraní.
En
este
caso,
Nyanduid
Vizquera
significa
nuestros
antepasados.
Se
extragieron
preguntas
y
respuestas
utilizando
el
modelo
GPT-4.
Utilizamos
el
modelo
GPT-4
en
forma
muy
manual.
Y
nos
enfocamos
en
la
siguiente
apartados.
¿Qué
sería?
Generar
preguntas
y
respuestas.
Simple
y
cerradas
basándose
en
el
texto,
analizando
ideas
centrales,
significados,
explicaciones
y
resumen.
Englomamos
en
gran
parte
un
análisis
general
del
libro.
No
solamente
nos
basamos
en
preguntas
y
respuestas
simples,
sino
que
para
extraer
mucho
más
conocimiento
del
libro.
La
parte
de
revisión
se
dividió
en
cuatro
partes.
En
este
caso,
cada
uno
analizó
aproximadamente
300
preguntas
y
respuestas.
Y
una
vez
que
se
analizaron
todas
estas
preguntas
y
respuestas,
se
englobó
todo
en
el
dataset
que
es
"desomos"
en
el
lp.
"Datacet
cultura
guaraní
corpus
kit".
Esta
sería
la
estructura
en
la
página.
Como
podemos
ver,
generamos
1.373
preguntas
que
para
nosotros
fue
un
logro.
Nos
marcamos
inicialmente
1.000
y
terminamos
generando
esto.
También
más
o
menos
130
preguntas
y
respuestas
de
evaluación.
Estas
serían
los
formatos
para
importar
el
dataset.
Luego
pasamos
al
modelo.
Creamos
el
modelo
"wa"
y
le
pusimos
estas
frases.
En
la
mitología
guaraní,
el
padre
de
la
sabiduría
usaba
un
"wa"
o
"loro"
para
intentar
comunicarse
con
su
hijo
supremo
Tupá.
Haciendo
la
misma
analogía,
creamos
este
modelo
para
disjundir
la
cultura
guaraní
a
todos
los
hispanohablantes.
Nos
basamos
en
el
modelo
"mistral"
de
7
billones
de
parámetros
cuantizados
a
4
Rubit.
Hicimos
un
"fine
tuning"
con
los
siguientes
datos.
Mire
los
más
relevantes
que
"R"
es
64
y
el
valor
de
"alpha"
es
128.
Durante
el
proceso
de
entrenamiento,
tenemos
los
siguientes
datos.
Los
más
relevantes
fueron
que
el
número
de
épocas
fue
5,
el
"learning
rate"
de
2
por
diálar,
menos
4,
y
todos
los
otros
valores
se
pueden
visualizar
ahí.
Las
métricas
del
entrenamiento
fueron
las
siguientes.
Empezamos
con
un
error
más
o
menos
del
2.7
y
llegamos
a
0.1.
Las
métricas
después
del
entrenamiento
fueron
las
siguientes
debido
a
la
estrategia
seleccionada.
El
gradiente
normalizado
también
se
fue
en
ver
ahí.
Y
entonces
lo
que
hicimos
fue
evaluar
los
checkpoints.
Elegimos
2
checkpoints,
en
este
caso
el...
Y
hasta
aquí.
Bueno,
ahora
puedo
empezar,
yo
si
queréis.
Me
parece
que
me
llamo
bastante
la
atención
cuando
leí
el
tema
del
proyecto.
Y
dado
que
también
nos
interesa
representar
las
diferentes
variades
del
español
en
el
corpus
que
estamos
creando,
quería
saber
si
consideráis
que
el
libro
está
escrito...
Obviamente
no
está
escrito
en
Guarani,
pero
si
está
escrito
con
una
variedad,
no
sé
si
es
de
Paraguay
o...
Un
poco
más
información
sobre
las
variedades
que
consideráis
que
están
representadas
en
vuestrodataset.
Si
quieres,
María,
continuo,
tengo
una
pregunta
o
lo
esperamos
que
conteste
o
si
quieres
disparo
ya.
Vale,
igual
se
hablaba
después
en
el
vídeo,
pero
hemos
tenido
que
cortar.
Pero
siendo
un
modelo
de
7
billones,
habiendo
sólo
1000
ejemplos
de
entrenamiento
me
preocupaba
un
poco
que
no
hubiese
overfitting,
el
famoso
overfitting.
Me
gustaría
saber
un
poco
qué
pasó
en
la
evaluación
del
modelo
por
estas
dos
consideraciones.
Además
que
se
entrenara
durante
5
epochs,
aunque
comentaba
también
que
al
final
había
un
checkpoint
con
3
epochs
que
seguramente
rendiría.
La
intuición
me
dice
que
iría
mejor
por
el
tema
de
que
no
son
muchos
ejemplos
y
el
modelo
es
bastante
grande.
Vale,
pues
ya
tengo
respuesta
en
primera
pregunta.
El
libro
sí
que
está
escrito
en
Guarani,
entonces
genial.
Y
ahora
esperamos
la
respuesta
de
Enrique
para
tu
pregunta.
Flor,
si
quieres
comentar
o
preguntar
algo,
puedes
hacerlo
mientras.
Nada,
comentar
que
es
súper
interesante,
sobre
todo
también
remarcar
lo
que
ha
dicho
María,
que
es
muy
importante
que
no
solo
nos
enfocamos
en
el
español
el
6,
sino
en
todas
sus
variedades.
Al
final
la
riqueza
lingüística
del
idioma
se
tiene
también
en
cuenta.
Es
muy
interesante
y
yo
sobre
tener
una
pregunta
que
es
más
relacionada
con
el
tema
de
la
creación
de
los
datos
y
la
notación,
y
es
que
si
habéis
tenido
en
cuenta
cómo
solventar
algunos
secos
o
si
tiene
algún
tipo
de
seco
el
conjunto
de
datos.
Genial,
tenemos
la
respuesta
para
la
segunda
pregunta
de
Manu,
que
es
que,
claro,
efectivamente
la
versión
sigue
en
el
vídeo,
también
les
preocupaba
llegar
a
la
Overfitting,
pero
no.
O
sea
que...
ahí
está.
Muy
bien.
Genial.
Tuvisteis
igual
un
poco
de
follow
up
para
esto,
tuvisteis
algo
en
cuenta,
o
sea
para
evitar
que
ya
se
llegase
a
la
Overfitting
teniendo
en
cuenta
que
había
pocos
datos,
pero
en
general
salió
bien.
Lejamos
un
poquito
más
y
después
vamos
a
pasar
a
un
proyecto
sobre
detección
de
textos
que
están
referidos
al
cambio
climático
o
además
de
sostenibilidad.
También
bastante
original.
Creo
que
no
tenemos
más
respuestas.
Igualmente
las
respuestas
que
no
hagáis
en
directo
las
podéis
hacer...
bueno,
las
compartiremos
con
vosotros
las
preguntas,
pero
aquí
llega.
Fueron
diferentes
evaluadores,
por
eso
había
variedad
para
flor.
Podéis
contestar
un
poco
más
extensamente
a
usted.
Siguiente
proyecto,
bueno,
enhorabuena,
gran
proyecto,
y
pasamos
al
siguiente
sobre
el
cambio
climático
y
sostenibilidad.
Hola,
buenos
días
a
todos.
Mi
nombre
es
Gerardo
Huerta.
Formo
parte
del
equipo
que
desarrolló
el
proyecto
de
identificación
de
textos
relacionados
al
cambio
climático
y
sustentabilidad,
utilizando
modelo
de
lenguaje
pre-entrenado
en
español.
Vamos
a
explicarle
sí
rápidamente
cómo
fue
el
desarrollo
de
nuestro
proyecto
en
este
tercer
jacatón
de
Somos
NLP.
Ok,
la
motivación
de
nuestro
proyecto
es
debido
a
que
estas
temáticas
de
cambio
climático
y
sostenibilidad
han
estado
en
bastante
sitio,
digamos,
son
los
trending
topics
que
tenemos
en
muchos
partes,
tanto
en
artículos
científicos,
revistas,
noticias,
blogs,
opiniones.
Tanto
así
que
ciertos
proyectos,
como
por
ejemplo
el
proyecto
Drownedown,
realiza
repositorios
en
línea,
digamos,
que
aglomeran
las
soluciones
para
combatir
el
cambio
climático.
Ya,
este
proyecto
lo
que
pretende
es
que
todas
las
soluciones
estén
en
un
solo
sitio
y
que
las
personas
puedan
consultar
estas
soluciones
y
así
tener
una
mejor
idea
o
visión
de
cómo
poder
ellos
combatir
y
aportar
a
reducir
los
efectos
del
cambio
climático.
Sin
embargo,
alguna
de
las
limitaciones
que
hemos
encontrado
es
que
no
presentan
la
última
noticia
o,
digamos,
ejemplos
en
la
vida
real
de
estas
soluciones.
Por
lo
que
esta
información
es
bastante
ensis
y
se
puede
encontrar
en
muchos
lugares.
No
se
actualiza
en
cada
cierto
tiempo.
Para
ellos,
lo
que
nosotros
estamos
proponiendo
es
crear
una
herramienta
capaz
de
identificar
los
textos
como
abstract
papers,
titulares
de
noticias
o
artículos
en
general,
que
hablen
sobre
el
tema
de
cambio
climático,
sus
soluciones,
sus
efectosy
estudios
recientes,
de
tal
forma
que
nos
permita
tener
una
base
para
desarrollar
recursos
más
complejos
en
español,
como
dataset
o
enriquecer
este
tipo
de
repositorios
sobre
información
del
tema.
Muy
bien.
Con
parte
del
método
que
utilizamos,
en
primer
lugar,
hemos
conformado
un
dataset
para
lo
cual
hemos
seguido
tres
pasos.
Primero
la
elección
de
datos.
Hemos
tomado
fuentes
open
source.
Hemos
tomado
diferentes
formatos
de
texto
para
que
tengamos
diversidad.
También
hemos
tomado
textos
cortos
y
textos
largos
para
poder
mejorar
el
modelo
base
sobre
el
cual
estamos
trabajando.
Como
parte
del
preprocesamiento,
hemos
realizado
la
traducción
del
dataset
en
inglés
que
se
tiene
como
base
y
el
etiquetado
de
registros
con
0
y
1,
si
son
relacionados
o
no
a
lo
que
es
el
cambio
climático
y
sustentabilidad.
También
hemos
quitado
los
hardstack,
nomes
de
usuario,
URL
en
el
caso
de
los
dataset
de
X.
Y
finalmente
hemos
realizado
la
formación
y
balanceo,
que
es
básicamente
unir
todos
los
resultados
del
preprocesamiento
en
un
único
dataset
buscando
que
los
registros
con
etiquetas
0
y
1
tengan
balanceo
en
cuanto
a
la
cantidad.
En
la
parte
inferior
pueden
ver
la
tabla
con
los
resultados
obtenidos.
Con
estos
set
de
datos
nos
procedimos
a
realizar
el
entrenamiento
de
un
modelo.
Nosotros
seleccionamos
un
modelo
base
que
haya
sido
entrenado
completamente
en
datos
de
español,
por
lo
cual
el
proyecto
Vertin
nos
pareció
bastante
entractivo
con
su
modelo
Vertin
Roberta
Base
Spanish,
de
cual
es
100%
entrenado
en
dataset
en
español,
aparte
que
ha
sido
entrenado
con
la
técnica
de
Mask
Toke,
lo
cual
beneficia
para
este
tipo
de
fine
tuning
como
por
ejemplo
la
identificación
de
textos
o
la
clasificación
de
textos.
Se
ha
utilizado
una
GPU
T4
de
la
cual
Google
collab
nos
ofrece
de
manera
gratuita,
y
en
total
toda
la
arroyilla
de
carbono
que
se
ha
generado
por
entrenamiento,
pruebas
y
validaciones
del
modelo
ha
sido
de
0.1
kilogramos.
Bien,
los
resultados
obtenidos
luego
del
entrenamiento
han
sido
una
pérdida
de
0.15
en
acura
así
de
0.97
y
luego
de
realizada
la
validación
se
obtuvo
el
acurasi
de
0.95,
precisión
de
0.91,
RECAL
de
0.99
y
F1Score
de
0.95.
Como
futuros
pasos
del
proyecto
hemos
identificado
la
parte
de
generalizar
aún
más
el
modelo
tomando
datos
de
fuente
diversa
y
mayor
cantidad
de
datos,
esto
para
reducir
aún
más
lo
que
son
las
parcialidades
del
modelo.
Crear
un
dataset
con
información
de
cambio
climático
y
sustentabilidad
basada
en
sectores
para
posterior
realizar
o
desarrollar
un
modelo
que
no
sólo
nos
ayude
a
identificar
textos
sino
que
también
lo
pueda
clasificar
basado
en
sectores,
lo
que
sería
como
un
toque
en
clasificación.
Así
puede
clasificar
el
texto
ya
sea
en
que
hable
acerca
de
electricidad,
de
agricultura,
de
industria
transporte,
etc.
Y
finalmente
un
proyecto
más
avanzado,
la
creación
de
un
modelo
de
cuestión
en
answering
que
brinde
información
relevante
a
hacer.
Genial,
gran
proyecto
también.
Vamos
a
probar
un
nuevo
formato,
vamos
a
preguntar,
hacer
las
preguntas
por
el
chat
para
que
tengáis
un
poquito
más
de
tiempo
en
responder,
¿vale?
Comiento
con
la
pregunta
de
Flor,
la
Flor,
¿la
puedes
hacer
tú?
Bueno,
de
nuevo
un
proyecto
súper
interesante
y
también
lo
que
he
comentado
antes,
que
es
un
tema
poco
común
en
el
sentido
de
las
proyectos
que
se
suelen
normalmente
abordar
en
el
Particio
de
la
Lenguaje
Natural.
Sí
que
vemos
el
tema
del
cambio
climático
a
la
hora
de
utilizar
estos
modelos,
de
cuál
es
el
reynimiento
y
demás,
pero
no
en
el
sentido
de
abordar
los
datos,
entonces
es
muy
interesante.
Mi
pregunta
es
porque
habéis
comentado
que
en
uno
de
los
pasos
traducí
el
Datáster
de
Inglés
a
la
Español
y
para
saber
si
ya
habéis
hecho
una
revisión
rápida
de
algunos
textos
para
ver
si
esa
traducción
estaba
bien.
Mi
comentario
aquí
también
un
poco
rápido
es
que
me
alegra
ver
que
ante
la
tendencia
está
que
hay
de
matarla
a
mosca
un
cañonazo
y
resolver
cualquier
problema
con
LLMS,
que
acordémonos
que
tienen
billones
de
parámetros
y
seguramenteresuelven
el
problema
pero
luego
ponenlos
en
inferencia
y
usarlos
es
otro
cantar,
es
más
costoso,
pues
que
elijan
un
modelo
en
CodeRonly,
un
modelo
de
arquitectura
roberta
que
como
hemos
visto
en
las
métricas
tiene
una
cura
bastante
alto
y
funciona
bastante
bien.
Para
mí
eso
es
un
punto
a
favor
de
no
usar
un
LLMS
cuando
se
puede
usar
con
un
LLMS
tradicional.
Totalmente.
Y
además
es
Bertín,
hecho
en
casa.
Miras,
me
suena.
Genial,
pues
enhorabuena
también
a
este
equipo.
Vamos
a
pasar
al
siguiente
proyecto
que
es
sobre
lenguaje
claro.
Algo
de
lo
que
ahora
también
se
está
hablando
muchísimo.
Entonces
vamos
a
ver
cómo
se
puede
aplicar
esto
al
NLP.
Hola
somos
Sergio
Chicon.
Hola
somos
Sergio
Chicon
y
Rubén
de
la
Fuente
y
queremos
presentar
nuestro
modelo
de
lenguaje
claro.
El
objetivo
de
este
modelo
es
tomar
textos
de
carácter
administrativo
que
pueden
presentar
problemas
de
comprensión,
no
sólo
para
gente
con
un
bajo
nivel
educativo,
sino
para
la
población
en
general.
Entonces
queremos
hacer
un
modelo
que
tome
estos
textos
y
haga
que
resulten
más
usables
por
la
población
en
general.
Y
con
esto
le
doy
paso
a
mi
compañero
Sergio
que
os
va
a
contar
cuáles
han
sido
los
procesos
de
preparación
del
corpus
y
de
entrenamiento
del
modelo.
Todo
tuyo
Sergio.
Muchas
gracias
Rubén.
Pues
en
principio
estábamos
dudando
si
elegir
Fidoos
o
Gema,
el
modelo
de
Google,
de
dos
billones
de
parámetros
también.
Optamos
al
final
por
Fidoos
porque
parecía
que
tenía
una
mejor
comprensión
del
español.
Gema
al
final
fallaba
un
poco
con
algunas
conjugaciones,
formación
de
palabras
y
tal.
Entonces
al
final
elegimos
Fidoos,
¿no?
Para
el
entrenamiento
del
modelo
utilizamos
un
dataset
de
entrenamiento
con
dos
columnas,
una
de
input
y
otra
de
output.
El
input
estuvo
definido
por
textos
extraídos
de
la
administración
del
gobierno
de
España,
todos
los
ministerios
y
el
gobierno
central
mediante
técnica
de
web
scrapping,
sobre
todo
con
beautiful
soft.
Y
el
output
son
esos
mismos
ejemplos
del
input,
traspasados
a
un
lenguaje
claro,
mediante
diferentes
modelos
que
fuimos
probando.
Vale,
para
la
carga
del
modelo,
como
vemos
aquí
la
tarjeta,
utilizamos
la
configuración
de
bits
and
bytes,
esta
que
vemos
aquí
cargamos
el
modelo
en
4
bits
para
mayor
procesamiento
y
mayor
velocidad
a
la
hora
de
la
inferencia.
Y
también
aplicamos
técnica
de
low-range
adaptation
en
las
capas
lineales
del
modelo,
como
venía
la
misma
documentación,
como
se
puede
ver
aquí
en
la
misma
tarjeta.
Y
iniciamos
el
entrenamiento
con
los
argumentos
que
se
pueden
ver
en
la
misma
tarjeta
del
modelo.
El
entrenamiento
llevó
a
lo
largo
más
o
menos
unos
300
y
pico
steps,
y
tardó
unas
2
horas
y
media
para
el
mismo
entrenamiento.
Utilizamos
una
T4
en
Google
collab,
aunque
también
provee
como
una
V100
en
su
momento,
tardaba
bastante
menos,
pero
bueno,
la
T4
tiene
la
ventaja
de
que
es
gratuita.
Y
luego,
pues,
simplemente
con
la
estructura
del
prompt
utilizamos
esta
misma
plantilla
de
aquí,
también
sacada
de
la
documentación
de
FIDOS
en
la
que
es
muy
sencillito
este
prompt.
Simplemente
determinas
el
mensaje
del
sistema
y
el
texto
a
rellenar.
Una
vez
con
esta
plantilla
lo
que
hicimos
fue,
obviamente,
formatear
todo
el
dataset
y
luego
toquenizarlo
con
el
mismo
toquez,
nizador
de
FIDOS,
y
eso
ya
lo
pasamos
al
entrenamiento
del
modelo.
Para
evaluar
el
modelo
hicimos
varias
pruebas
en
cuanto
a
lenguaje
claro,
le
pasamos
varios
textos
de
más
o
menos
dificultad
en
cuanto
a
su
comprensión,
y
el
modelo
es
verdad
que
simplificaba
sobre
todo
en
tema
de
procedimientos
paso
a
paso,
te
lo
simplificaba
todos
los
pasos,
los
tecnicismos
te
los
aclara
y
varias
las
oraciones
pasivas
te
las
vuelve
activas,
pero
es
verdad
que
tiene
algunos
errores,
sobre
todo
en
la
comprensión
lingüística.
A
la
hora
de
formar
el
lenguaje
no
sabemos
si
estos
errores
que
tiene
el
modelo
a
la
hora
de
escribir
en
español
se
deben
directamente
a
los
fallos
que
tiene
el
mismo
modelo,
el
FIDOS
para
la
comprensión
del
español
o
que
en
ese
procesode
entrenamiento
se
hayan
podido
olvidar
algunas
competencias
que
sí
tenía
el
modelo
inicialmente,
lo
que
se
llama
"catastrophe
forgetting".
Así
que,
respecto
a
esto
habrá
que
revisarlo,
estos
pequeños
fallos,
pero
como
primera
aproximación
para
elaborar
un
modelo
que
se
acaba
de
reescribir
textos
en
lenguaje
claro,
está
bastante
bien,
creemos
que
es
un
primer
paso
bastante
importante.
Había
un
antecedente
que
era
CLIP,
creo
que
era
hecho
por
una
asociación
de
Buenos
Aires
con
apoyo
al
gobierno
de
Buenos
Aires,
que
también
hizo
una
iniciativa
más
o
menos
parecida,
pero
utilizaba...
Bueno,
pues,
descubirtiéndemos
más
sobre
esa
iniciativa
otro
día.
Tenemos
dos
preguntas,
ya.
La
primera
es...
¿de
man?
Sí,
bueno,
a
mí
me
gustaría
saber
un
poco
cómo
han...
nos
han
comentado
algo
muy
interesante,
que
muchas
veces
nos
planteamos
lo
que
hacemos,
los
21
de
modelos
es...
como
mi
problema
final,
el
lenguaje
objetivo,
o
el
lenguaje
que
quiero
que
rinda
mi
modelo
es
español,
cuál
de
todas
estas
alternativas
rinde
mejor,
y
no
lo
va
a
ser
rinde
mejor
en
español
para
venir
y
quitarme
de
eso.
Yo
ya
han
comentado
que
habían
probado,
creo,
Yemma,
Fidos
y
alguna
alternativa
más.
Me
gustaría
saber
el
método,
o
cómo
han
probado,
que
es
mejor
en
español
Fidos,
en
este
caso.
Quiero
un
poco
la
pregunta
que
siempre
hago
también,
¿no?
De
ese
modelo
resultante,
es
mejor,
o
sea,
hacer
fine
tuning.
Es
mejor
el
modelo
fine
tuneado
que
el
modelo
base,
usando
la
modo
Fuse-Ot,
es
decir,
dándole
ejemplos
de
cómo
se
desambigüan
para
justificar,
claro,
ese
fine
tuning.
Esas
son
un
poco
mis
dos
preguntas
y
el
proyecto
me
parece
bastante
interesante,
¿no?
Genial.
Yo
me
muero
con
otra
pregunta,
que
es...
Me
ha
parecido
interesante
la
discusión
que
has
comentado
un
poco
sobre
cómo
habéis
visto
ejemplos
en
los
que
sí
que
simplificaba
más
o
menos
el
texto,
explicaba
técnicismos,
y
a
ver
si
habéis
recolectado
estos
ejemplos
por
escrito
en
algún
sitio,
pues
para
que
se
puedan
revisar,
porque
realmente
creo
que
pueden
ser
bastante
interesantes.
Y
bueno,
en
general
el
proyecto
también
es
súper
guay,
como
también
nos
dicen
por
los
comentarios,
nos
comenta
Aitor.
Muchas
veces
no
se
ha
�
se
encontrado
para
algún
texto
administrativo
que
no
se
hubiese
gustado
que
nos
pudiesen
traducir.
O
sea,
que...
a
ver
qué
tal
funciona
el
modelo.
Vale,
siguiente
proyecto
es
Noticia,
con
la
IA.
Y
habla
de...
bueno,
el
objetivo
es
hacer
resúmenes
de
noticias
clickbait.
Vamos
a
ello.
Este
sí
que
no
lo
voy
a
tener
que
cortar.
Y
querí
que...
ven,
tenemos
sólo
cinco
minutos
para
contar
el
proyecto
antes
de
que
caiga
un
asteroide.
¿Ya
me
estás
intentando
colar
otro
clickbait?
Ay,
sí,
ya
ves,
un
titular
que
solo
invita
a
clicar,
un
montón
de
información
irrelevante,
y
justo
al
final,
pero
sólo
al
final,
la
respuesta
que
necesitas.
Un
clickbait
de
manual.
No
sé
cómo.
Ya
veo,
a
la
era
en
100
años.
Bueno,
no
va
a
caer.
Y
estos
clickbaits
son
un
problema
porque,
al
final,
la
gente
se
aburre.
Si
tú
ves
esta
noticia,
entras
y
ves
que
dentro
no
hay
nada,
sólo
contenido
irrelevante,
te
cansas
de
ello
y
al
final
acabas
perdiendo
la
confianza
de
las
portales
de
noticias.
Pero
lo
peor
de
todo
es
que
si
la
gente
clica
en
este
tipo
de
noticias,
los
buscadores
lo
van
a
priorizar
y
te
van
a
enseñar
cada
vez
más.
Y
entonces
los
periodistas,
que
hacen
periodismo
de
verdad
y
buenas
noticias,
van
a
ver
cómo
enalientan
sus
noticias,
dejan
de
ganar
dinero
y
tienen
que
dejar
su
trabajo.
Ay,
bueno,
bueno,
es
mal
que
nuestro
proyecto,
hemos
intentado
un
poco
ver
cómo
estamos
para
solucionar
este
problema.
Hemos
propuesto
una
tarea
de
evaluación
para
modelos
en
castellano
en
la
que
exigimos
a
los
modelos
que
hemos
evaluado,
que
interpreten
los
titulares,
que
busquen
la
información
relevante
dentro
del
texto
y
que
la
devuelvan
de
una
manera
agradable
para
los
humanos,
para
leer.
Y
entonces,
bueno,
no
ha
sido
un
trabajo
fácil.
Ahí
nos
hemos
dejado
las
neuronas
buscando
las
respuestas
en
850
documentos
y
entonces
ahora
tenemos
850
tripletas
de
titular
clickbait,
la
noticia
y
la
respuesta
que
esperamos.
Ybueno,
¿qué?
¿Cuántos
modelos
hemos
usado?
Pues
hemos
evaluado
un
montón
de
modelos
en
español,
todos
los
que
están
a
la
de
moda,
que
la
mayoría
de
ellos
han
sido
entrenados
para
inglés,
no
para
español,
y
queríamos
ver
cómo
funcionan.
Y
esta
es
una
tarea
muy
interesante
porque
realmente
es
muy
difícil
tienes
que
leer
titular,
entender
qué
es
lo
que
dice,
buscárame
un
montón
de
información
relevante
dentro
de
tu
interesa
y
darse
la
de
su
harín.
Entonces,
lo
que
hemos
visto
en
nuestra
evaluación
es
que
GPT4,
como
esperábamos,
es
el
mejor
modelo
ahora
mismo
en
español,
pero
el
resultado
acá
en
Modos
Abiertos
está
muy
cerca.
Por
ejemplo,
el
modelo
no
ser
mes
guí,
o
los
modelos
OpenChat
o
no
ser
mes
sola,
además
son
pequeñitos
y
pueden
funcionar
en
tarjetas
que
puedes
tener
en
tu
casa.
Así
que
la
gente
los
puede
usar.
Pero
bueno,
aparte
de
eso,
queríamos
probar
a
entrenar
un
modelo
con
nuestros
datos
a
ver
qué
es
lo
que
pasaba.
Así
que
hemos
entrenado
un
modelo
basado
en
OpenChat
de
7
billones
de
parámetros,
la
gente
puede
usar
en
su
ordenador
porque
es
pequeñito.
Y
lo
que
hemos
visto
es
que
nuestro
modelo
Fintuneado
se
acerca
mucho
a
las
respuestas
que
dan
las
personas
humanas,
mucho
más
que
cualquier
modelo
sin
Fintunear.
Esto
quiere
decir
que
hay
mucho
más
gente
mejora
en
español
para
hacer
modelos
que
sigan
instrucciones.
¿Por
qué
se
mejora
tanto
entrenándolo?
Sí,
la
verdad
es
que
está
bien
saber
que
todavía
hay
bastante
para
hacer.
Y,
oye,
de
verdad
que
no
notas
el
astero
y
de
cómo
llega.
La
prisione
que
encontréis
un
título
al
clickbait,
podéis
probar
nuestro
demo
en
somosnlt,
sólo
disimete
el
arte
y
os
va
a
generar
un
resumen.
Y,
bueno,
si
alguien
quiere
trastear,
mejorar,
el
código
está
disponible.
Sí,
todo
nuestro
código
está
en
GitHub
público
y
además
tenéis
todos
los
modelos
y
el
dataset
también
en
HighinFace
para
que
lo
podéis
utilicar.
Pues
nada
más,
no
es
una
obra.
Es
que
siempre
empieza
hablando
yo.
Bueno,
pues
yo
te,
si
quieres
yo,
nada,
a
mí
me
parece,
está
echando
un
vistazo
también,
me
parece
un
proyecto
muy
interesante,
muy
útil
y
la
verdad
que
es
muy
bien
ejecutado.
Y
mi
única
pega,
por
poner
un
pelo,
pero
me
ha
costado
ponerlo,
incluso
es
que
hubiera
hecho
en
falta
poner,
o
sea,
que
se
hubieran
evaluado
también
modelos
más,
o
sea,
no
LMS,
más
humildes,
como
por
ejemplo,
yo
recuerdo
que
en
el
pasado
intenté
resolver
este
tipo
también
de
problema
y
utilizamos
un
long
format,
que
podía,
como
sabéis,
es
un
modelo
de
arquitectura
en
CodeR
Only,
pero
que
puede
soportar
hasta
4,000
tokens,
incluso
más.
Pues
por
poner
un
pelo
hecho
en
falta,
pues
que
se
utilicen
modelos
más
pequeños,
a
ver
qué
tal
lo
hacían
el
problema,
pero
por
lo
general,
por
todo,
me
parece
que
está
muy
interesante
y
es
muy
útil.
Ponte
en
modo
no
molestar
o
no
turno
o
algo.
Dale,
Flor.
Genial,
bueno,
me
encanta
la
presentación,
lo
primero
que
tengo
que
decir,
la
he
hecho
súper
amina,
muy
graciosa
y
bueno,
también
muy
bien
explicada,
la
verdad.
Yo
quiero
decir
que
me
ha
gustado
mucho
ver
el
gráfico
en
el
sé
que
se
comparan
diferentes
modelos
para
el
español
y
bueno,
la
buena
noticia
de
que
algunos
funcionan
bien
para
el
tribunal,
que
ha
sido
sí
es
sorprendente,
la
verdad.
Y
luego
también
me
ha
dado
mucho
que
entrenar
un
modelo
que
al
final
sea
pequeño,
como
habéis
dicho,
que
se
pueda
executar
en
cualquier
ordenador
y
que
está
basado
en
ese
vampirio,
para
mí
también
creo
que
algún
punto
a
favor
para
el
proyecto
y
bueno,
el
tema
en
sí
está
genial,
sobre
todo
hoy
en
día
y
mi
pregunta
es,
porque
no
me
ha
quedado
muy
claro,
que
medidas
de
evaluación
habéis
utilizado
para
ver
qué
es
este
modelo
y
también
el
que
vosotros
habéis
entrenado,
pues
consiguen
un
buen
entrenamiento
en
la
tarea.
Pues
genial.
A
mí
también
me
encantó
la
presentación,
todavía
lo
tenía
que
decir.
Superamena,
es
muy
fácil
de
entender
y
de
hecho
también
me
parece
súper
interesante
el
hecho
de
que
lo
hayáis
planteado
como
una
tarea
de
evaluación
que
igual
podemos
incluir
en
el
líder
work
queestamos
creando.
O
sea
que,
ya
verás.
Genial,
el
próximo
proyecto
es
sobre
textos
clínicos,
que
han
creado
un
corpus
enorme,
lo
sé,
porque
realmente
lo
que
estamos
mirando
lo
único
es
cuántos
ejemplos
ha
creado
cada
equipo
para
hoy
poder
abrir
la
presentación
con
ese
número
enorme
de
2
millones.
Entonces,
vamos
con
el
siguiente
proyecto.
Vamos
a
poner
la
propuesta
a
la
que
hemos
estado
trabajando
en
este
medio
y
demás,
que
en
resumen
ha
sido
en
la
generación
de
un
gran
corpus
médico
para
el
contexto
biomédico.
En
primer
lugar,
pues
nos
hemos
alineado
con
los
objetivos
de
la
UNO
igual
que
el
jacatón
de
salud
y
bienestar,
educación
y
calidad,
y
fin
de
la
pobreza
para
generar,
bueno,
para
que
gente
por
todo
el
mundo
sea
accesible
a
los
LLMS,
a
esta
nueva
tecnología.
Y
bueno,
para
eso,
la
primera
misión
nuestra
fue
investigar
que
habían
hecho
todos
los
investigadores.
Bueno,
hemos
encontrado
otras
herramientas
como
MET,
SEP,
que
también
han
trabajado
en
este
caso
de
uso.
Bueno,
el
equipo
que
formamos
este
grupo,
en
primer
lugar
el
doctor
Dionis
López
Ramos
de
la
Universidad
de
Cuba,
en
segundo
lugar
yo
aquí
de
Madrid.
Y
bueno,
también
tenemos
a
Garyl
que
no
participa
en
esta
entrevista
con
otros
que
no
han
podido
estar
hoy,
pero
bueno,
les
tendremos
en
cuenta.
Bueno,
para
enfocar
el
problema
que
tenemos
es
que
hoy
en
día,
sobre
todo
en
mi
médico,
hay
módulos
en
inglés,
pero
en
español
no
hay,
tenemos
pocos
recursos
o
conjuntos
de
datos
y
ya
sabemos
que
estos
grandes
módulos
de
lengua
genitano
en
una
gran
cantidad.
Bueno,
además
de
esa
gran
cantidad,
sobre
todo
en
el
canal
de
la
medicina,
es
muy
importante
la
acreditación,
que
hay
una
certificación
médica
que
avale,
que
son
datos,
bueno,
primero
que
sean
enviables
de
usar,
¿no?
Y
bueno,
la
solución
que
proponemos
no
es
un
conjunto
de
datos
open
source,
que
está
ahora,
bueno,
que
ya
está
en
JavonFace,
y
bueno,
y
también
el
avance
no
a
todo
el
mundo
científico
y
a
toda
la
empresa,
sino
a
utilizar
este
conjunto
de
datos
para
la
creación
de
módulos
de
lenguaje.
Y
ahora
mi
compañero
os
contará
lo
demás.
Bueno,
conscientes
de
que
existen
otras
soluciones,
otros
módulos
que
se
enfocan
al
medio
médico,
al
dominio
médico,
sobre
todo
para
el
inglés
como
en
este
caso,
quisiéramos
investigar
meditron
y
biomistral,
que
fueron
los
que
guiaron
un
poco
la
forma
de
construcción
de
nuestro
corpo,
y
en
el
caso
biomistral
que
está
hecho
para
un
pequeño
corpo
del
español.
Nuestra
propuesta
se
encuentra,
como
lo
había
dicho
Álvaro,
en
"JubinFace",
sobre
el
nombre
Spanish
Medical
LLM,
y
la
estructura
que
les
propone
a
la
comunidad
de
investigadores
es
13
fuentes
de
información
a
las
cuales
continuamos
aumentando,
una
cantidad
de
toques
de
más
de
17
millones,
un
tamaño
aproximado
de
44
megabes
en
memoria,
y
bueno,
una
cantidad
de
más
de
2
millones
de
entrada
para
el
entrenamiento
o
el
autosuste
de
modelos
para
el
dominio
médico
en
español.
La
estructura
que
seguimos
fue
una
estructura,
tratamos
de
que
fuera
lo
más
flexible
posible,
permitiendo
que
se
insertara
un
texto
en
crudo,
un
tópico
sobre
el
cual
hablaba
ese
tópico,
la
especialidad,
y
en
el
caso
del
texto
crudo
y
el
tópico,
pues
el
investigador
va
a
encontrar
o
preguntas
o
casos
clínicos
o
textos
abiertos,
y
los
tópicos
pueden
ser
o
la
respuesta
a
la
pregunta,
o
el
tratamiento
o
diagnóstico
asociado
al
caso
clínico,
al
texto
o
al
que
estás
mencionando.
Un
atributo
importante
es
la
fuente,
porque
demostramos
en
la
carta,
en
el
CART
de
este
data
sec,
que
especificamos
o
permitimos
que
el
identificador
asociado
a
esta
fuente,
el
nombre
de
la
fuente,
la
cantidad
de
toques
y
la
licencia
de
uso.
De
esta
manera,
los
investigadores
podrán
aportar
mucha
más
información,
y
en
el
caso
de
que
la
licencia
se
restringe,
pues
simplemente
filtrar
y
usar
la
parte
del
conjunto
de
datos
que
les
más
util
a
los
propósitos
de
su
investigación.
Y
también,
la
investigación
en
la
creación
o
entrenamiento
de
un
gran
modelo
de
lenguaje,
en
el
dominio
médico
para
el
español.
El
trabajo
futuro
de
nuestrainvestigación
se
orienta
a
realizar
el
entrenamiento
de
un
LLM
para
el
español,
debido
a
que
no
existe
hasta
la
investigación
que
hemos
realizado,
continuar
agregando
información
a
nuestro
conjunto
de
datos
y
tratar
de
generar
datos
sintéticos,
porque
también
es
objetivo,
estamos
previendo
que
pudiéramos
usar
puentes
de
datos
de
medicina
natural
que
conocen
en
muchas
partes
de
Latinoamérica.
Muchas
gracias.
Nuestra
call
to
action
es
que
ahora
tú
puedes
usar
Spanish
Medical
LLM
para
entrenar
los
grandes
modelos
de
lenguaje
y
dar
soluciones
y
servicios
de
información
de
salud
en
latán.
Muchísimas
gracias
por
su
atención.
Gracias
a
todos,
un
placer.
Me
encanta
el
call
to
action
del
final.
Y
también
el
hecho
de
que
como
que
hay
un
enfoque
que
no
se
suele
incluir
en
estos
bases
de
datos,
en
estos
modelos
que
es
la
medicina
más
natural,
más
alternativa,
digamos.
Teníamos
varias
preguntas,
da
el
mano.
Sí,
bueno,
como
tú
dices
María,
muy
interesante
el
modelo,
la
solución,
se
está
poniendo
un
poco
de
módalo
para
entrenar
modelos
en
dominios
específicos
o
continuar
el
pre-training
para
dominios
específicos.
Y
a
mí
me
suscita
un
par
de
dudas.
La
primera
y
muy
importante
creo
que
es
tratándose
de
este
dominio
médico
o
clínico,
donde
es
muy
probable
que
haya
mucha
información
personal.
Me
gustaría
saber
si
se
ha
tratado
esa
información,
si
se
ha
identificado,
si
se
ha
aplicado
esa
información
como
relación
o
directamente
se
ha
licuado.
Y
luego
también
puesto
que
se
parte
de
modelos,
que
han
sido
pre-entrenados
en
inglés,
como
han
evitado
ese
catástrofe
por
Getting,
que
se
produce
cuando
lo
intentas
adaptar
a
un
idioma
dominio
distinto
en
el
pre-training,
pero
no
incluyes
datos
o
parte
del
dataset,
está
en
el
mismo
idioma
que
en
el
que
se
pre-entrenó
el
modelo,
que
eso
le
ocurre.
Me
suscita
principalmente
esas
dos
dudas,
al
igual
que
un
poco
también.
Me
hubiera
gustado
ver
algo
de
evaluación,
de
cómo
rícte,
aunque
sé
que
igual
hubiese
habido
que
crear
un
dataset
adrede,
pero
sí
que
es
verdad
que
existen
dataset
de
modelos,
de
ámbito
médico
o
clínico,
de
estilo
en
coderón
y
en
los
cuales
se
podría
haber
evaluado
también.
Sí,
yo
por
sumarme
un
poco
a
lo
que
decía
antes,
realmente
me
parece
increíble
haber
recolectado
tantos
datos
del
dominio
clínico,
y
habéis
comentado
algo
de
datos
sintéticos,
pero
no
sé
si
en
el
de
ahora
ya
no
con
futuros
pasos,
si
también
hay
parte
de
ese
dataset
que
habéis
creado
como
equipo
o
ha
sido
todo
trabajo
de
recolección.
Genial.
Entonces
ahora
se
han
acabado
los
que
ya
estaban
subidos
a
stream.
Ya
el
resto
no
son
muy
grandes,
entonces
voy
a
tener
que
compartir
el
pantalla,
a
ver
qué
tal
funciona
esto.
Vamos
a
ver
ahora
un
proyecto
que
pregunte
respuesta
sobre
temas
legales.
Y
ahora
vamos
a
ver
qué
es
el
proyecto.
Interesante,
pues
llegó
un
rato.
Ahora
si
me
veis
esto,
no?
No,
tampoco.
Presentar.
Vale,
ahora
sí,
vale.
Si
vuelvo
a
pasar,
a
mí
sabe
antes.
Lo
pongo
desde
el
principio,
supongo
entonces.
Sí,
o
sea,
se
está
escuchando,
se
escuchaba
perfectamente,
pero
no
sé
lo
diría,
o
sea,
si
quieres
por
lo
desde
el
principio,
sino
por
donde
iba,
porque
bueno,
se
escuchaba
bastante
bien.
Vale.
Así
se
sigue
viendo,
o
es
al
hacer
la
pantalla
grande?
Así
se
ve,
y
se
ve,
digamos,
la
vista
de
string
yard.
Genial.
Ah,
¿por
qué?
Eso
no
es
lo
que
quiero
ver.
Bueno.
Y
por
qué
no
puedo...
Quiero
dar
un
cosas
del
directo,
compartir
pantalla.
Bueno,
pues
lo
hago
aquí.
Vale,
vamos
a
hacer
otra
cosa.
Vamos
a
ver
otro
proyecto.
Esperamos
que
se
vea
bien.
Vamos
a
ver
otro
proyecto.
Esperamos
que
se
vea
bien.
Vale,
este
sí.
Uno,
ya.
Buenas
tardes,
somos
Sara,
Alberto,
Oscar,
Gabriel
y
Andrea.
Y
venimos
a
presentar
nuestro
proyecto
en
el
jacatón
de
SomoNLP,
que
se
ha
dividido
en
dos
proyectos.
Uno
de
ellos
es
su
llama,
Cumevin
y
el
otro
es
su
llama.
Recepta
de
la
abuela,
pero
que
lo
hemos
trabajado
de
forma
unificada
en
torno
al
mismo
tema.
Como
propone
el
modelo
con
votaciones
que
nos
permiten
adoptar
hábitos
saludables.
Hay
muchos
recursos
sobre
recetas,
sobre
alimentación
en
inglés,pero
no
existen
tantas
iniciativas
en
español.
Y,
por
tanto,
en
este
proyecto
nosotros
nos
hemos
dedicado
a
escrapear
distintas
páginas
web
con
recetas
de
origen
hispanoh
americano.
La
hemos
unificado,
hemos
creado
un
dataset
de
instrucciones
y
hemos
entrenado
modelos
de
lenguaje
que
nos
permitan
poder
realizar
consultas,
preguntas,
etcétera,
pero
un
contexto
nutricional
que
nosotros
le
añadimos.
Bueno,
continuando
con
el
dataset.
Para
su
creación,
como
se
mencionó,
se
realizó
web
scrapping
en
diferentes
páginas
web
hispanoh
americanas,
latinoamericanas
e
internacionales.
Las
cuales
fueron
redactadas
en
español.
En
total
pudimos
recolocpilar
20.447
recetas,
las
cuales
obtivimos
los
atributos
como
el
nombre,
los
ingredientes,
pasos
de
preparación,
duración,
categoría,
entre
otros.
Para
esta
tarea
utilizamos
librerías
como
New
Papers,
Scrappy
y
BigDipFullSub
y
también
la
pide
de
Tuber
de
AI
para
poder
rellenar
algunos
campos
de
país
que
nos
faltaron.
Esto
se
puede
encontrar
en
lo
que
sería
el
model
car
de
nuestro
dataset,
como
se
puede
observar.
Una
de
las
tareas
de
homogenización
que
se
realizó
en
el
dataset
fue
la
utilización
del
formato
ISO
A3
con
los
códigos
de
los
países
debido
a
que
en
la
comunidad
hispana
como
la
internacional
hay
diferentes
maneras
de
expresar
los
nombres
de
los
países.
Con
respecto
a
las
estadísticas,
se
hicieron
visualizaciones
con
Workload
haciendo
uso
de
los
coeficientes
Tf
y
Df
para
obtener
los
resultados
como
ingredientes
más
utilizados
por
país
o
los
términos
más
utilizados
en
los
nombres
de
las
recetas.
Para
la
creación
del
cortón
de
instrucciones,
primero
vimos
importante
borrar
aquellos
registros
que
nos
contarán
con
los
datos
más
importantes
de
los
datos
de
los
nombres
de
los
datos.
Por
ejemplo,
el
nombre
de
la
receta
y
los
registros
que
no
tuvieran
ingredientes
o
pasos
son
los
datos
más
importantes.
Después
de
esto
procedimos
a
juntar
todas
las
características,
todas
las
columnas
de
los
registros
que
juntan
ingredientes,
pasos,
país
de
precedencia,
duración
de
la
receta
y
valor
nutricional.
Todos
los
juntamos
en
una
columna
para
poder
procesar
datos
con
un
modelo
que
te
genere
unas
preguntas
y
una
respuesta.
El
framework
que
utilizamos
fue
el
de
DC
Label
y
el
modelo
que
utilizamos
fue
el
de
Genus
Drop
para
que
a
partir
de
este
texto
pudiera
generar
una
pregunta,
una
respuesta
y
así
hacer
el
entrenamiento
posterior.
Este
entrenamiento
ha
sido
realizado
investigando
diversos
modelos
partiendo
de
Mistral
7b
que
es
algo
más
lento,
Tinny
Yama
que
es
algo
más
rápido
pero
menos
preciso
y
ha
encontrado
el
punto
medio
en
Genma,
en
Genma
de
2
pillones
de
parámetros
a
4
bits
de
la
librería
Slot.
Esto
es
el
doble
de
rápido
que
los
anteriores
y
utiliza
la
mitad
de
UberRAN.
Entonces
con
esto
tenemos
un
entrenamiento
que
ha
ido
de
forma
incremental.
Primero
con
10
recetas,
luego
con
100
y
al
final
con
2500,
durando
aproximadamente
dos
horas
en
una
máquina
de
hacking
phase
T4M.
En
el
paper
aparecen
los
parámetros
usados
y
también
aparece
una
gráfica
donde
se
ve
el
gráfico
de
pérdidas,
viendo
que
va
siendo
decreciente
hasta
un
valor
de
1,3
con
un
rizado
bastante
bajo.
Se
ha
utilizado
el
gradient
check
point
para
hacer
un
resum
y
poder
reentrenarlo
de
forma
iterativa.
En
el
entrenamiento
hemos
evaluado
con
Vertescore
el
parecido
con
las
recetas
originales
haciendo
una
precisión
relativamente
alta
de
0,67.
Por
último
el
impacto
medioambiental
se
ha
calculado
con
las
50
horas
de
entrenamiento
que
hemos
tenido
obteniendo
0,7
kilogramos
de
toneladas
equivalentes
de
CO2.
Y
por
último
los
resultados
pues
en
un
ardemos
radio
que
hemos
hecho
recetas
de
la
abuela
y
come
bien,
como
se
puede
ver
ahí
en
la
pantalla
donde
se
le
da
un
contexto
utilizado
con
técnicas
de
phase
y
RAG
y
se
hace
una
pregunta
y
el
modelo
nos
da
una
respuesta.
Así
que
eso
es
todo
y
muchas
gracias
por
su
atención.
Bueno,
empiezo
comentando
que
me
ha
encantado
que
ya
no
solo
este
proyecto
pero
también
bastantes
equipos
de
esteaño
que
han
sentado
sus
papers
al
workshop
de
Latinx
in
NLP.
O
sea
que
también
enhorabuena.
Y
muy
bien
hecho
el
paper
ya
que
estamos,
es
original
presentarlo
con
hacer
la
presentación
siguiendo
el
paper
pero
lo
bueno
es
que
también
así
pues
seguís
las
secciones
y
comentáis
todo
lo
que
suele
ser
más
importante.
Mi
pregunta
es
que
en
general
tenéis,
bueno
habéis
conseguido
muchísimas
recetas
y
sí
que
está
bastante,
o
sea
la
proporción
de
recetas
de
España
es
bastante
más
grande
que
el
de
otros
dos
países
y
mi
pregunta
es
si
no
encontrasteis
páginas
web
o
hicisteis,
o
sea,
qué
medida
hicisteis,
pues
recolección
de
datos
y
busqueda
más
estautiva
para,
o
es
que
tampoco
estaba
en
vuestros
objetivos.
También
puede
ser
una
opción.
Tenéis
otra
pregunta?
Todo
muy
bien
explicado.
Perfecto.
Pues
vamos
a
ver
si
puedo
poner
ahora
bien
otro
de
los
proyectos.
Vamos
con
él
preguntas
y
respuestas
de
legal
para
recolgarnos.
Ah,
es
verdad.
Es
que
es
cerrado
porque
sí
que
se
nota,
pero
no
sé
si
es
porque
tuvieron
algún
problema
a
la
hora
de
grabar
su
vídeo,
que
entiendo
que
sí.
Entonces
bueno,
subiremos
este
vídeo
con
voz
cuando
nos
lo
pase
el
equipo.
Entonces
vamos
a
poner
el
último
vídeo
que
tenemos.
Ah,
no,
ya
está.
También
tuvimos
otro
problema
con
otro
de
los
vídeos.
Entonces
bueno,
no
os
preocupéis,
vamos
a
subir
todos
los
vídeos
uno
a
uno
y
estarán
ahí
para
que
la
gente
les
pueda
ver.
Pues
podéis
compartirlos,
podamos
haceros
preguntas,
respuestas.
Compartimos
también
todas
las
preguntas
que
os
hemos
hecho
durante
el
día
de
hoy.
Y
esperamos
vuestras
respuestas
también
para
tener
en
cuenta
toda
esta
información
en
la
evaluación.
Dado
que
es
el
final,
no
sé
si
Manu
Flor
queréis
hacer
algún
otro
comentario
final.
Yo
por
mi
parte
la
verdad
que
daros
la
número
buena
a
todo
el
mundo
de
nuevo.
Han
sido
proyectos
increíbles.
La
parte
de
las
presentaciones
iremos
mejorando
de
año
a
año.
Pero
realmente
los
proyectos
estoy
súper
contenta
con
el
resultado.
Entonces,
y
no
le
voy
a
dar
nada.
Sí,
yo
por
alusiones
también
creo
que
este
es
el
tercer
hacazón
que
hacemos
María.
Y
bueno,
contento
de
ver
que
ha
ido
increscendo
en
calidad
para
mí
los
proyectos
y
sobre
todo
en
cantidad
de
recursos
que
se
han
aportado
al
ecosistema.
O
sea
que
muy
contento
también
con
los
resultados,
la
implicación
y
el
nivel
que
veo
que
va
subiendo,
no?
Hacazón
a
hacazón,
mola
mucho,
no?
Esa
es
el
nivel
de
implicación.
Bueno,
y
yo
para
terminar
también
trasladaron
mi
enhorabuena.
Es
increíble
lo
que
se
puede
hacer
en
solo
un
mes
o
incluso
menos
tiempo.
Y
son
súper
interesantes
todos
los
proyectos.
Y
sobre
todo
lo
importante
es
que
al
final
se
va
a
liberar
los
recursos
en
términos
de
dataset
y
también
de
modelos
que
seguramente
es
que
comincian
que
van
a
ser
súper
útiles
para
la
comunidad.
Y
bueno,
y
también
por
último,
trasladaron
mi
enhorabuena
a
los
organizadores.
Y
al
final
se
crea
una
comunidad
para
el
español
que
es
muy
necesaria
y
toda
su
variedad
de
lingüística.
Y
también,
pues
súper
importante
que
al
final
no
se
entre
solo
en
España,
sino
que
también
tenga
muy
equipos
de
toda
Latinoamérica
y
de
todos
los
países
y
panablanca.
Así
que
enhorabuena
y
si
ojalá
siga
mucha
media
edición
en
más.
Sí,
sí,
sí.
Para
retomar
un
poco
lo
que
habéis
dicho,
tanto
Manu,
lo
de
que
el
nivel
va
subiendo
es
increíble.
O
sea,
ha
habido
proyectos
muy
buenos
todos
los
años,
pero
realmente
creo
que
también
como
organizadores
estamos
mejorando.
Pero
creo
que
también,
pues
eso,
el
nivel
está
subiendo,
estoy
súper
contenta.
Y
también
otra
cosa
que
me
alegro
bastante
es
que
cada
vez
tenemos,
como
decía,
el
lugar
más
presente
en
Latinoamérica.
Entonces
este
año
creo
que
ya
es
justo
lo
que
alcole
ayer,
pero
es
como
un
40
y
algo.
Entonces
bueno,
también
hay
mucha
gente
que
se
conecta
desde
países
que
no
son
hispanohablantes.
Entonces
supongo
que
son
hispanohablantes
por
el
mundo.
Pero
sí,
sí,
hay
un
gran
porcentaje
cada
vez
más
alto
de
gente
que
muchos
países.
Entonces
el
proyecto,
estecuele
multimodal,
creo
que
no
me
lo
mandasteis.
Pero
bueno,
volverás
a
reenviármelo
y
voy
a
decir
mi
correo
aquí.
Bueno,
todo
el
mundo
que
estés
aquí
ya
sabéis
muy
correos,
pero...
Este
proyecto
por
echar
un
cable
creo
que
es
el
de
traducir
cuérise
en
lenguaje
natural
en
español.
Pero
si
está
en
el
Excel
de
evaluación
del
proyecto,
pero
claro,
si
no
te
han
mandado
vídeo,
Mario,
pues
no
podemos
verlo.
Sí,
el
del
traductor
inclusivo...
El
traductor
inclusivo
es
el
que...
ah,
el
traductor,
pues
sí
le
sí
que
no
lo
hemos
puesto,
es
el
que
estaba
yo
poniéndolo.
Es
el
que
no
estaba
compartiendo
pantalla,
¿verdad?
Puede
ser.
Pues
lo
pongo,
Flor,
si
te
tienes
que
ir,
puedes
irte
ya.
Ponemos...
No
te
preocupes,
no
puedes.
Vale,
podemos
ver
un
último
vídeo.
Perfecto,
genial.
Puede
salir.
Hola,
vamos
a
presentar
nuestro
proyecto
"Traductor
Inclusivo",
el
cual
forma
parte
del
jacatón
de
Somo
en
LP
2024.
El
equipo
que
ha
colaborado
en
este
proyecto
hemos
sido
Andrés,
Immanuel,
Gaya,
Josué
y
Yo
Miguel,
que
hemos
llevado
a
cabo
distintas
labores
como,
por
ejemplo,
la
creación
y
limpieza
de
un
dataset
y
también
la
entrenamiento
y
despliegue
de
un
modelo
de
NLP.
La
motivación
del
proyecto
viene
por
el
uso
secado
del
lenguaje,
el
cual
puede
crear
distintas
opresiones
de
ideología,
género
o
marginal
grupo.
Para
ello,
queremos
crear
un
dataset
y
un
sistema
el
cual
pueda
servir
como
herramienta
para
reescribir
textos
a
un
lenguaje
inclusivo.
El
dataset
que
hemos
creado
usa
parejas
de
textos,
del
lenguaje
excluyente
y
del
lenguaje
inclusivo.
Hemos
también
etiquetado
por
tipo
de
dificultad
de
traducción
y
por
los
orígenes,
por
los
que
vienen
cada
dato.
Hemos
usado
chatGPT,
hemos
usado
distintas
guías
de
texto
inclusivo
y
también
hemos
usado
un
dataset
previo
llamado
Neutrales,
pudiendo
alcanzar
la
cantidad
de
4196
datos.
La
tarjeta
del
dataset
está
en
el
hub
de
HagenFace.
El
modelo
que
hemos
usado
ha
sido
un
Fine
Tuning
de
Aguilas
7B,
usando
culora
con
4.018
y
usar
lenguaje
español
y
GPU
Nvidia
T4.
La
tarjeta
del
modelo
lista
para
ser
usada
está
subida
también
al
hub
de
HagenFace.
También
hemos
desplegado
una
demo
para
poder
utilizar
y
ver
cómo
funcionaría
nuestro
modelo
y
por
ejemplo
en
las
enfermeras
se
forzaron
mucho
durante
la
pandemia.
Esto
lo
cambiaría
el
personal
de
enfermería
se
forzó
mucho
durante
la
pandemia
omitiendo
el
exército
de
que
toda
la
enfermera
tenga
que
ser
mujer.
Y
ahora
mi
compañero
Andrés
va
a
comentar
los
resultados
de
este
modelo.
Para
analizar
estos
resultados
hemos
utilizado
dos
métricas
distintas.
Por
el
lado,
la
métrica
Sacrebleu
que
pone
por
encima
la
corrección
gramatical
de
las
frases
antes
que
de
las
palabras
utilizadas,
y
después
la
métrica
Bleu,
que
es
así
tienen
cuenta
que
las
palabras
utilizadas
coinciden.
Entonces
hemos
hecho
una
media
armonica
ponderada
de
estas
dos
métricas
distintas.
Y
estos
son
los
resultados
que
hemos
tenido.
Vemos
que
hay
algunos
resultados
muy
buenos
y
otros
que
también
importante
que
son
muy
malos.
Vamos
a
ver
un
poquito
más
a
esto
a
que
se
debe.
Aquí
vemos
que
sobre
todo
estos
datos
muy
malos
se
ven
en
la
métrica
Sacrebleu.
Si
vemos
por
qué,
vemos
que
muchas
veces
hay
predicciones
que
coinciden
con
el
target,
por
ejemplo
David
es
vendedor,
David
es
vendedor,
y
la
métrica
Sacrebleu
le
ha
dado
una
puntuación
de
cero.
Eso
es
porque
la
métrica
Sacrebleu
también
penaliza
los
textos
que
son
muy
cortos.
Si
seguimos
hacia
abajo,
vemos
la
puntuación
del
modelo
por
las
distintas
dificultades
y
vamos
a
hacer
un
poco
más
de
cerca
aquellas
dificultades
que
tienen
poca
puntuación.
Como
por
ejemplo,
el
plural
complejo,
las
de
Cultura
o
Misión.
Dale
para
abajo,
Miguel.
Entonces,
aquí
vemos
que
muchas
veces
estos
malos
resultados
se
deben
a
que
existen
fórmulas
equivalentes
del
lenguaje
que
son
igualmente
válidas.
Por
ejemplo,
los
empresarios
chinos
se
han
traducido
como
las
empresarias
y
empresarios
chinos.
Cuando
en
el
target
hayan
puesto
la
comunidad
empresarial
china.Normalmente,
ambos
son
fórmulas
equivalentes
que
también
son
inclusivas
y
elegir
una
frente
a
otra
suma
diez
cuestiones
estilísticas
más
que
de
corrección
del
lenguaje
inclusivo.
Y
ejemplos
como
ese,
pues
muchos
otros.
Si
iremos
la
puntuación
que
obtienen
los
textos
en
función
de
la
longitud
del
texto
inicial,
vemos
que
en
general
los
resultados
son
bastante
buenos.
Si
es
verdad
que
los
textos
cortos
tienen
poca
puntuación,
eso
puede
ser
debido
a
lo
que
hemos
comentado
de
la
métrica
Sacrebleu.
Y
también
vemos
que,
conforme
los
textos
hacen
largos,
parece
que
disminuyó
un
poco
la
puntuación
que
obtiene
este
modelo.
En
cuanto
a
las
limitaciones,
pues
el
modelo
no
se
ha
entrenado
con
contextos
largos
y
complejos,
sino
que
mayoritariamente
se
ha
entrenado
con
frases
en
las
que
los
trimios
van
a
modificar
si
no
traban
al
comienzo
de
la
frase.
De
vuelve
solo
una
única
opción,
aunque
hemos
visto
que
existen
varias
opciones
equivalentes,
que
son
válidas,
y
tampoco
detecta
o
modifica
los
discursos
de
hoy.
Otras
limitaciones
son
que
a
veces
hay
pequeñas
pérdidas
de
información,
un
uso
forzado
del
término
personas
a
veces,
e
incluso
falta
de
contexto.
Si
seguimos,
para
el
futuro
vemos
que
se
podría
cambiar
la
cantidad
y
la
variedad
de
los
datos
para
extender
el
modelo
a
textos
más
grandes
y
complejos,
incluyendo
más
dificultades.
También
se
puede
hacer
que
el
modelo
ofreciera
más
de
una
respuesta
inclusiva,
para
después
poder
elegir,
y
también
se
podrían
suprimir
los
mensajes
de
otra.
Así
que,
en
conclusión,
tenemos
un
modelo
que
funciona
bastante
bien
en
textos
cortos,
el
Dasek
que
hemos
creado
se
podría
utilizar
para
hacer
21
de
otros
modelos
de
lenguaje,
y
todavía
queda
por
hacer
el
desarrollo
de
la
opción
de
textos
más
largos,
y
también
que
el
modelo
pueda
ofrecer
varias
respuestas
posibles.
Muy
bien,
eso
ha
sido
todo.
Muchísimas
gracias.
Comentarios.
Bueno,
yo
lo
primero,
gracias
por
recordármelo.
Algo
que
me
gustó
es
que,
bueno,
en
realidad
me
parece
un
tema
súper
relevante,
bastante
sensible
también,
y
algo
curioso
también
me
gusta
que
hayáis
retomado
un
tema
que
se
comenzó
a
tratar
ya
en
uno
de
los
jacatones
anteriores
y
pudieses
reutilizar
lo
creado.
Sí,
y
puedo
continuar.
Sí,
la
verdad
es
que
en
particular
me
interesa
bastante.
Creo
que
ahora
pone
la
uge
de
los
modelos
de
lenguaje
más
importante
que
nunca
tratar
de
desarrollar
sistemas
para
el
seco,
pero
sí
me
gustaría
preguntar
acerca
de
la
notación
de
datos,
porque
así
es
también
un
tema
sensible,
pues
es
importante
que
se
tengan
muy
en
cuenta
cuál
es
la
calidad
de
los
datos
a
la
hora
de
anotarlos.
Cuántos
anotadores
estuvieron
en
el
proceso
de
notación
y
cómo
se
evalúo
esa
notación.
Es
interesante
saber.
Genial,
a
ver
si
nos
contestan
en
directo,
porque
como
están
aquí
en
el
chat,
igual
sí.
Sí,
yo
también
sumarme
en
general
tener
cuidado
cuando
se
anotan
temas
tan
sensibles
como
podrían
ser
este.
También
temas
de,
ya
hemos
comentado
con
temas
clínicos,
de
medicina
o
también
de
psicología.
Ha
habido
un
par
de
proyectos
que
no
han
mandado
presentación,
pero
sí
que
han
creado
proyectos
interesantes,
que
siempre
hacía
hincapié
en
tener
cuidado
con
todos
sus
sistemas.
Bueno,
tienes
alguna
pregunta
mientras
para
dejarles
un
momento
o
si
no
puedes.
Es
igualmente
de
acuerdo
con
lo
que
ha
hecho
Flor
y
con
lo
que
ha
dicho
tú,
es
tan
necesario
este
tipo
de
medidas
como
críticas.
Veo
que
sí
que
había
un
análisis
del
post-training
de
esas
métricas,
de
cómo
rendía
el
modelo,
cosa
que
se
valora.
Pero
cómo
se
ha
generado
ese
dataset
y
cómo
se
ha
etiquetado
es
muy
importante
que
guía
de
anotación
se
ha
usado,
en
qué
se
han
basado
y
sobre
todo
creo
que
he
escuchado
también
que
se
ha
utilizado
algún
modelo
de
OpenEJ,
con
lo
cual
hay
recordar
que
es
importante
que
cuando
anota
un
modelo
estamos
asumiendo
los
ecos
de
ese
modelo.
Entonces
es
muy
importante
este
tipo
de
iniciativas,
pero
son
muy
críticas
y
hay
que
tratarlas
con
mucho
cuidado
y
con
el
mismo
que
se
merecen.
Genial,
ya
tenemosuna
respuesta.
Andrés
Gaya
del
equipo
ha
sido
la
principal
revisadora
de
los
datos.
Muchos
de
los
datos
han
tomado
directamente
de
ejemplos
de
guías
de
lenguaje
y
se
han
multiplicado
utilizando
las
mismas
fórmulas
que
aparecían
en
esos
guías.
Creo
que
es
una
buena
respuesta
también
el
hecho
de
que
obviamente
soy
su
equipo
pequeñito
y
tampoco
había
muchísimo
tiempo,
pero
en
general
cuando
hay
anotaciones
de
este
estilo
sí
que
está
bien
que
haya
varias
personas
que
anoten
los
ejemplos,
porque
todo
el
mundo
está
asagado
y
yo
también
estoy
asagada
y
Gaya
es
lingüista.
¡Ay!
Sí,
quién
es.
Sí,
eso
está
guay.
También
algo
que
sí
que
hemos
intentado
animar
mucho
son
los
equipos
interdisciplinares
que
también
comentaba
al
principio
en
las
primeras
palabras
del
evento.
Entonces,
bueno,
Floria,
tu
pregunta
no
sé
si
quieres
alguna
opción
más
o
pasamos
para
el
último
proyecto.
Genial.
También
gracias
por
recordármelo.
No
lo
compartísis
conmigo,
pero
sí
en
el
form.
O
sea
que
aquí
está
el
modelo
último
DAAL
de
SQL.
Vamos
allá.
La
opción
precisa
de
consultas
de
usuarios
en
SQL
es
crucial
pero
desafiante.
Los
LLM
han
avanzado
pero
dependen
del
inglés
y
pueden
cargar
de
conocimientos
específicos
en
bases
de
datos,
lo
que
puede
generar
consultas
inestactas
o
inutilizables.
Nuestra
propuesta
para
solucionar
esto
es
una
herramienta
multimodal
que
permita
a
los
usuarios
interactuar
con
bases
de
datos
en
español
mediante
comandos
de
voz
o
texto
con
respuestas
en
texto,
audio
o
imágenes.
Esto
consiste
en
implementar
un
LLM
y
un
SQL
para
interactuar
con
bases
de
datos
en
español
en
un
enfoque
multimodal.
Bueno,
pues
yo
les
presento
aquí
el
diagrama
de
nuestro
proyecto.
Lo
primero
que
se
realizó
fue
una
recolección
de
datos.
A
estos
datos
se
les
hizo
una
aumentación
de
calidad.
Luego
con
estos
datos
se
hicieron
fine
tuning
con
dos
modelos
de
lenguaje.
Se
utilizaron
técnicas
como
CULORA
y
LORA
y
como
PES.
Posibilmente
se
planea
meterlo
que
es
una
autocorrección
al
modelo
para
que
se
vaya
corregiendo
al
usuario
y
al
último
hacer
un
interfaz
de
usuario
para
que
hay
una
mejor
comunicación
en
el
usuario
del
modelo
y
le
pueda
dar
las
respuestas
ya
sea
en
audio
o
en
texto.
Primer
paso.
Como
primer
paso,
nuestro
proyecto
fue
CREAUNT
DATACET.
Para
lo
gracias
DATACET
nos
guiamos
de
un
SQL.
Nuestro
dataset
contiene
cuestión.
Las
preguntas
contienen
las
preguntas
generadas
que
pueden
generar
los
usuarios.
ASGWARE
las
preguntas
SQL
correspondientes
a
las
preguntas.
CONTEX
información
textual
que
puede
ser
útil
para
comprender
y
recordar
las
relaciones
entre
preguntas
y
respuestas.
Una
vez
se
logró
hacer
el
dataset,
lo
subimos
a
Google
Face
para
su
uso
correspondiente.
Ahora
nosotros
nos
dedicamos
a
hacer
fine
tuning
en
dos
modelos.
Los
cuales
fue
Codellama
y
Mistral,
CITV.
Ambos
fueron
cuantizados
a
4
bits.
Ya
que
nos
enfocamos
de
que
pudiera
ejecutarse
en
la
mayoría
de
equipos
disponibles.
Hemos
mostrado
un
mejor
resultado
ya
que
como
originalmente
están
entrenados
en
idioma
inglés
al
entrenar
el
fine
tuning
en
idioma
español.
Se
notó
un
mejor
resultado
ya
que
nos
damos
un
tos
en
adaptados
al
idioma
español.
Bueno,
pasando
con
una
demostración
de
la
parte
multimodal.
Primero
dimos
al
usuario
que
pudiera
elegir
entre
si
quiere
escribir
el
texto
o
si
quiere
pasar
por
vos.
En
este
caso
hicimos
una
prueba
con
vos,
en
donde
pusimos
el
prompt
de
dime
todos
los
profesores
que
parten
la
materia
de
mercado
técnico
por
medio
del
agua.
Entonces,
pasando
de
ahí,
utilizamos
Regex,
el
cual
nos
ayudó
a
filtrar
simplemente
que
nos
mostrara
nuestra
consulta
SQL,
la
cual
vamos
a
usar
para
después
implementarlo,
pasarla
a
nuestra
base
de
datos.
En
este
caso
la
cargamos
desde
Heimfeis
para
así
hacer
la
consulta
que
requeríamos.
Nos
muestra
los
resultados
de
dicha
consulta
que
hicimos
y
ya
de
ahí
nada
más
utilizamos
la
librería
para
una
librería
para
poder
utilizar
el
audio
y
poder
que
dijera
por
vos
lo
que
tenía
la
consulta.
Ok,
yo
les
mostraré
loque
es
la
base
de
la
interfaz.
En
la
interfaz
tenemos
el
prompt
en
el
cual
vamos
a
ingresar
profesores
que
imparten
la
materia
de
administración.
Ok,
entonces
tenemos
así,
metemos
el
prompt
y
nos
estarían
listando
los
profesores
que
están
impartiendo
esa
materia.
Ok,
también
darnos
una
opción
en
la
cual
por
medio
de
vos
vamos
a
grabar
la
voz,
cuáles
son
los
profesores
de
mercadotecnia
y
sus
horarios.
Y
al
ingresar
estos
resultados
tendríamos
como
resultado
los
nombres
de
los
profesores
con
sus
respectivos
horarios.
También
por
medio
de
un
mismo
prompt
de
texto
podemos
poner
cuáles
son
las
materias
que
imparte
la
maestra
edit.
Y
con
esto
nos
estaría
imprimiendo
de
una
manera
gráfica
lo
que
es
la
tabla
o
la
materia
que
la
imparte.
[Música]
[Música]
¿Hemos
perdido
a
María?
Sí,
ahora.
Ya
está
de
que
hay
de
vuelta.
Perdón.
Dale.
Bueno,
a
mí
el
proyecto,
la
verdad
es
que
me
parece
interesante
dos
puntos
sobre
todo.
Primero
la
generación
de
ese
recurso.
Había
visto
muchos
datos
de
texto
natural
SQL
y
viceversa,
pero
la
verdad
es
que
no
los
he
encontrado
en
español.
Y
luego
me
gusta
también
que
nos
enseña
un
proyecto
en
tu
en,
desde
la
creación
hasta
como
en
ese
mock
de
un
móvil.
Se
usa
ese
modelo,
se
ejecuta
esa
query
que
genera
y
se
ven
los
resultados.
Eso
también
me
gusta
porque
muchos
se
quedan
en...
Y
aquí
está
el
modelo
y
a
mucha
gente
le
cuesta
ver
que
detrás
de
eso
hay
una
o
muchas
posibles
aplicaciones.
Y
luego
puntos
que
me
queda
un
poco
de
duda
es
ese
dataset
es
lo
suficientemente
diverso.
O
sea,
más
información
de
cómo
se
ha
generado,
qué
categorías
comprende.
Se
dice
que
se
hubiera
experimentado,
¿no?
Con
qué
modos
se
ha
experimentado,
si
se
ha
experimentado
con
varios
modelos.
Y
sobre
todo
y
más
importante,
hay
una
frase
que
nos
comentan
de
que
se
nota,
¿no?
Que
el
modelo
es
mejor
que
la
versión
en
inglés.
Bueno,
ese
se
nota
si
no
hay
una
evaluación
cualitativa
o
cuantitativa,
pues
es
muy
complicado
para
el
resto
de
personas.
Saber
si
nos
merece
la
pena
usar
ese
modelo
por
el
simple
hecho
que
entiende
el
español
o
un
modelo
preentrenado
en
inglés.
Que
como
todos
sabemos,
pues
algo
de
español
han
visto
y
funcionan
de
aquella
manera,
¿no?
Luego
también
el
tema
multimodal,
¿no?
Importante
que
dice
una
solución
multimodal.
Y
sí
que
igual
es
multimodal
en
el
sentido
de
que
puede
trabajar
con
audio
también.
Pero
multimodal,
creo
que
cuando
la
audien
multimodal
en
este
mundo
nos
refirma
a
modelos
que
procesan
el
mismo
modelo
audio
y
texto
en
este
caso.
O
imagen
y
texto.
Y
creo
que
el
tipo
de
modelo,
¿no?
Que
sea
entrenado
no
es
multimodal
de
manera
inerente,
¿no?
Sino
que
son
dos
modelos.
Por
poner
un
pero.
Cool.
Yo
pongo
otro
pero.
No
he
tenido
que
pararlos
porque
sí
que
han
sido
cinco
minutos,
pero
no
sé
si
habláis
tan
rápido
en
directo.
Pero
bueno,
realmente
creo
que
también
para
sumar
a
mí
lo
que
decía
Manu
me
ha
parecido
muy
original
que
la
demo
sea,
pues
como
sería
la
demo
de
un
producto
digamos,
estamos
muy
acostumbrados
a
la
demo
de
High-Fix,
que
me
parece
genial
y
que
son
las
que
utilizo
simplemente
pues
algo
diferente
y
que
aporta
este
proyecto.
Y
nada,
como
estáis
por
aquí
no
sé
si
vais
a
querer
responder
a
las
preguntas
de
Manu.
Os
dejamos
unos
minutines
mientras
nos
despedimos
por
no
sé,
mi
segundo
o
tercera
vez.
Voy
a
repetirme,
pero
bueno,
enhorabuena
a
todo
el
mundo.
Geniales
los
proyectos.
Espero
que
hayáis
aprendido
mucho
y
que
tengáis
ganos
de
repetir
o
de
seguir
desarrollando
vuestros
proyectos
y
os
podemos
ayudar
en
lo
que
sea
encantados.
Y
ya
es
mi
último
mensaje
de
despedida.
¿Vas
a
traer?
Nada,
yo
lo
mismo.
Un
placer.
Muchas
gracias
a
todo
el
mundo
por
participar
y
por
el
nivel
que
sean
auto
impuestos
y
en
los
proyectos
y
sobre
todo
como
siempre
decimos
por
los
recursos
que
han
generado
para
el
español.
Ay,
perdón,
dale.
Lo
que
sí
voy
a
decir
es
que
no
sé
si
lo
sabéis,
ya
hay
un,
hoy
justo
lo
anunció
Alejandro
Baca,
ha
dicho
que
ha
entrenado,
bueno,publicó
un
nuevo
dataset,
o
sea,
modelo
de
instrucciones
y
ha
dicho
que
había
utilizado
los
datasets
del
hackathon.
O
sea,
que
enhorabuena
porque
ya
comienzan
las
primeras
aplicaciones.
De
hecho,
bueno,
como
sabéis,
la
idea
es
combinar
todas
las
instrucciones
que
se
han
creado
para
crear
un
gran
corpus
que
seguiremos
alimentando
con
diferentes
iniciativas.
Y
bueno,
así
que
bueno,
que
sepáis
que
ya
tiene
impacto
todo
esto
que
habéis
creado
este
esfuerzo.
Final,
yo
para
terminar,
de
nuevo,
reiterar
mi
enhorabuena,
todo
lo
equipo
y
sobre
todo
al
final
la
comunidad
grande
que
se
crea
con
este
tipo
de
iniciativas
que
creo
que
es
muy
importante.
Y
nada,
no
era
buena
de
nuevo.
Real,
nos
vemos.
[no
riendas
accur
considerablemente] | María Grandury, Flor Plaza y Manu |