Prima di tuffarci nei modelli Transformer, diamo un’occhiata rapida alla natura del natural language processing (elaborazione del linguaggio naturale) e alle ragioni per cui quest’ultimo ci interessa.
NLP è un campo di linguistica e machine learning (apprendimento automatico) che si focalizza sulla comprensione di tutto ciò che è legato al linguaggio umano. L’obiettivo dei compiti di NLP non è semplicemente di capire singole parole individualmente, ma anche di capirne il contesto.
La seguente è una lista dei più comuni compiti di NLP, ognuno accompagnato da esempi:
NLP non si limita però ai soli testi scritti, e tratta anche sfide complesse in riconoscimento vocale e computer vision (elaborazione di dati visuali), quali la generazione di trascrizioni di campioni audio o la descrizione di immagini.
I computer non elaborano le informazioni allo stesso modo degli umani. Ad esempio, quando leggiamo la frase “Ho fame,” ne capiamo senza difficoltà il senso. Allo stesso modo, date due frasi quali “Ho fame” e “Sono triste,” riusciamo facilmente a determinarne il livello di similarità. Per i modelli di machine learning (ML), tali compiti sono più difficili. Il testo deve essere elaborato in un modo che permetta al modello di imparare da esso. E siccome il linguaggio è complesso, il modo in cui l’elaborazione va svolta dev’essere studiato con cura. Molta ricerca è stata fatta su come rappresentare i testi, e nel prossimo capitolo vedremo alcuni di questi metodi.