File size: 9,561 Bytes
226cbb5 afffaf5 226cbb5 832c074 226cbb5 832c074 afffaf5 226cbb5 afffaf5 226cbb5 afffaf5 832c074 afffaf5 0cbc1ea 711c1a1 2f5eaaf afffaf5 711c1a1 afffaf5 832c074 cd873c5 832c074 0cbc1ea 832c074 cd873c5 832c074 0cbc1ea 832c074 cd873c5 832c074 afffaf5 832c074 711c1a1 afffaf5 711c1a1 afffaf5 711c1a1 1dcc85c afffaf5 711c1a1 afffaf5 711c1a1 afffaf5 711c1a1 7831135 afffaf5 7831135 afffaf5 7831135 afffaf5 7831135 afffaf5 711c1a1 971d785 664fbd5 afffaf5 664fbd5 afffaf5 664fbd5 afffaf5 832c074 afffaf5 226cbb5 afffaf5 226cbb5 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 |
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8" />
<meta name="viewport" content="width=device-width" />
<title>EDIA</title>
<link rel="stylesheet" href="style.css" />
<script src="languages/es.js"></script>
<script src="languages/en.js"></script>
<script src="links/es.js"></script>
<script src="links/en.js"></script>
<script type="text/javascript" src="javascript/index.js"></script>
</head>
<body>
<header id="head-flex-container">
<div id="title-container">
<h1 id="name">EDIA</h1>
<h2 id="subname">Estereotipos y Discriminación en Inteligencia Artificial</h2>
</div>
<button id="translate" onclick="translatePage()"><img id="flag-translate" src="images/united-states.png" alt=""> English</button>
</header>
<section id="description-container">
<p id="intro_1">Los modelos de lenguaje y las representaciones de palabras obtenidas con aprendizaje automatizado han demostrado contener estereotipos discriminatorios. Aquí presentamos un conjunto de herramientas de inspección: EDIA (Estereotipos y Discriminación en Inteligencia Artificial). El objetivo de este proyecto es diseñar y evaluar una metodología que permita a comunidades de ciencias sociales y personas expertas de dominio en Latinoamérica, explorar sesgos y estereotipos discriminatorios presentes en word embeddings y modelos de lenguaje. También les permite definir el tipo de sesgo a explorar y acercarse a un enfoque interseccional desde dos dimensiones binarias de análisis (por ejemplo, <i>mujer-hombre</i> vs <i>gordo-flaco</i>).</p>
<p id="intro_2">EDIA contiene diversas herramientas que sirven para detectar e inspeccionar sesgos en sistemas de procesamiento de lenguaje natural basados en modelos de lenguaje o word embeddings. Contamos con modelos en español e inglés para trabajar y explorar los sesgos en diferentes idiomas a requerimiento de las personas usuarias. Cada una de las siguientes herramientas son funciones distintas que nos acercan a un aspecto particular de la problemática del sesgo y a la vez, nos permiten entender partes diferentes pero complementarias del mismo.</p>
<a class="button" id="tutorial" target="_blank" href="https://www.youtube.com/watch?v=rNgRpVVoObo&list=PLbLfQihdfnFadUhYtXt5wAYFaKqabkmyZ&index=7&ab_channel=SADAFArgentina">Video presentación de EDIA</a>
</section>
<section id="cards-container">
<div class="card" id="word-bias-card">
<h3 id="word-bias-title">Sesgos en listas de palabras</h3>
<div class="card-description-flex-container">
<p id="word-bias-description">Basada en una técnica para detectar sesgos en WE, esta función nos permite visualizar la distribución de palabras en un espacio 2D y con ello observar la distancia entre ellas. Entre más contextos de ocurrencia compartan, estarán más cerca, y entre menos contextos de ocurrencia compartan, estarán más lejos. Esto, generalmente, hace que las palabras con un significado parecido aparezcan cercanas. A partir de la creación de listas de palabras que nos sirven para definir campos semánticos, podremos observar sesgos y explorar palabras vecinas entre esos significados.</p>
<div class="buttons-flex-container">
<a class="button demo" id="word-bias-demo" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_we_es">Demo</a>
<a class="button tuto" target="_blank" id="word-bias-tutorial" href="https://www.youtube.com/watch?v=hzJB636movU">Tutorial: Explorar listas de palabras</a>
<div class="divided-buttons-flex-container">
<a class="button manual" id="word-bias-manual-1" target="_blank" href="https://shorturl.at/cgwxJ">Manual:<br>Explorar listas de palabras</a>
<a class="button manual" id="word-bias-manual-2" target="_blank" href="https://shorturl.at/htuEI">Manual:<br>Explorar sesgos en listas</a>
</div>
</div>
</div>
</div>
<div class="card" id="phrase-bias-card">
<h3 id="phrase-bias-title">Sesgos en frases</h3>
<div class="card-description-flex-container">
<p id="phrase-bias-description">Aquí desplegamos una herramienta que utiliza modelos de lenguaje para evidenciar sesgos en frases, lo que nos permite trabajar con sesgos no binarios (como mujer - hombre, femenino - masculino) y eliminar ambigüedades (producto de polisemias). A partir de oraciones en donde una contenga <i>a) estereotipo</i> y la otra <i>b) antiestereotipo</i> (ejemplo: <i>a)</i> Las parejas de <i>homosexuales</i> no deberían tener permitido casarse, <i>b)</i> Las parejas de <i>heterosexuales</i> no deberían tener permitido casarse.), buscamos definir las preferencias de un modelo de lenguaje pre-entrenado a la hora de producir lenguaje. Si el modelo no tuviera sesgo ambas tendrían el mismo nivel de preferencia, pero si el modelo estuviera sesgado, una va a tener mayor preferencia.</p>
<div class="buttons-flex-container">
<a class="button demo" id="phrase-bias-demo" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_lmodels_es">Demo</a>
<div class="divided-buttons-flex-container">
<a class="button tuto" id="phrase-bias-tutorial-1" target="_blank" href="https://www.youtube.com/watch?v=nnK19Ro46Cs">Tutorial:<br>Sesgos en frases</a>
<a class="button tuto" id="phrase-bias-tutorial-2" target="_blank" href="https://www.youtube.com/watch?v=1WTQ2e19pRU">Tutorial:<br>Crows-Pairs</a>
</div>
<div class="divided-buttons-flex-container">
<a class="button manual" id="phrase-bias-manual-1" target="_blank" href="https://shorturl.at/fkBL3">Manual:<br>Sesgos en frases</a>
<a class="button manual" id="phrase-bias-manual-2" target="_blank" href="https://shorturl.at/gJLTU">Manual:<br>Crows-Pairs</a>
</div>
</div>
</div>
</div>
<div class="card" id="data-bias-card">
<h3 id="data-bias-title">Datos de las palabras</h3>
<div class="card-description-flex-container">
<p id="data-bias-description">Esta herramienta muestra información adicional de la palabra, como la frecuencia y el contexto de aparición dentro del corpus de entrenamiento. Sirve para explicar e interpretar comportamientos inesperados en otras pestañas producto de la polisemia o la poca frecuencia de las palabras, y a partir de esta exploración, poder realizar modificaciones pertinentes en nuestras listas de palabras y frases.</p>
<div class="buttons-flex-container">
<a class="button demo" id="data-bias-demo" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_datos_es">Demo</a>
<a class="button tuto" target="_blank" id="data-bias-tutorial" href="https://www.youtube.com/watch?v=hhFlv3bmThU">Tutorial: Datos de las palabras</a>
<a class="button manual" target="_blank" id="data-bias-manual" href="https://shorturl.at/CIVY6">Manual</a>
</div>
</div>
</div>
</section>
<footer>
<section id="image-flex-container">
<div id="main-buttons-flex-container">
<h4 id="backup-title">Backups de EDIA:</h4>
<a class="button" id="hf" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_full_es">Pruébalo en HuggingFace🤗!</a>
<a class="button" id="ccad" target="_blank" href="https://edia.ngrok.app/">Pruébalo en nuestra universidad!</a>
</div>
<div id="organization-container">
<h4 id="organization-title">Desarollado por:</h4>
<a target="_blank" href="https://www.vialibre.org.ar/">
<img class="banner" id="viaLibre-logo" src="images/viaLibre.jpg" alt="Fundación ViaLibre banner">
</a>
<a target="_blank" href="https://www.famaf.unc.edu.ar/">
<img class="banner" id="FaMAF-logo" src="images/Logo-FAMAF_UNC-color-2.jpg" alt="FaMAF banner">
</a>
</div>
<div id="sponsors-container">
<h4 id="sponsors-title">Auspiciado por:</h4>
<a target="_blank" href="https://aplusalliance.org/about-fair/">
<img class="banner" id="FaiR-logo" src="images/fair.png" alt="FaiR banner">
</a>
<a target="_blank" href="https://www.nd.edu/">
<img class="banner" id="notre-dame-logo" src="images/notre_dame.jpg" alt="Notre Dame banner">
</a>
</div>
<div id="our-pages-flex-container">
<h4 id="our-pages-title">Puedes encontrar a EDIA en:</h4>
<a target="_blank" href="https://github.com/fvialibre/edia">
<img id="github-logo" src="images/github.png" alt="EDIA's Github repository">
Github
</a>
<a target="_blank" href="https://hub.docker.com/r/fvialibre/edia">
<img id="docker-logo" src="images/docker.png" alt="EDIA's DockerHub image">
DockerHub
</a>
<a target="_blank" href="https://huggingface.co/vialibre">
<img id="hf-logo" src="images/huggingface.svg" alt="ViaLibre's HuggingFace page">
HuggingFace🤗
</a>
</div>
</section>
<p id="footer-description">ACLARACIONES IMPORTANTES: Las consultas realizadas al usar este software quedan registradas automáticamente en nuestro sistema. Declaramos que la información recabada es anónima, confidencial y que el uso de la misma sólo será para fines de investigación. Para realizar las exploraciones de las dimensiones de análisis, como género, necesitamos simplificarlo a un fenómeno binario; entendemos que es una sobresimplificación, se trata de una primera aproximación a la familia de soluciones de mitigación que sabemos requiere de una mayor complejidad para tratar los fenómenos de sesgo dentro de los constructos sociales.</p>
</footer>
</body>
</html>
|