{"id":6942,"date":"2024-03-11T10:49:44","date_gmt":"2024-03-11T17:49:44","guid":{"rendered":"https:\/\/upes.edu.mx\/radio\/?p=6942"},"modified":"2024-03-11T10:49:45","modified_gmt":"2024-03-11T17:49:45","slug":"la-ia-ya-reproduce-estereotipos-de-genero","status":"publish","type":"post","link":"https:\/\/upes.edu.mx\/radio\/?p=6942","title":{"rendered":"LA IA YA REPRODUCE ESTEREOTIPOS DE G\u00c9NERO"},"content":{"rendered":"<p><\/p>\n<p><\/p>\n<p><\/p>\n<p><\/p>\n<p><\/p>\n<p>La Organizaci\u00f3n de la ONU para la Educaci\u00f3n, la Ciencia, y la Cultura (<a rel=\"noreferrer noopener\" href=\"https:\/\/en.unesco.org\/\" target=\"_blank\">UNESCO<\/a>) public\u00f3 un\u00a0<a rel=\"noreferrer noopener\" href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000388971\" target=\"_blank\">estudio<\/a>\u00a0que examina los estereotipos presentes en las herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa m\u00e1s populares.\u00a0<\/p>\n<p><\/p>\n<p><\/p>\n<p>Titulado,&nbsp;<em>Prejuicios contra las mujeres y las ni\u00f1as en los modelos de lenguaje grandes<\/em>, este documento revela pruebas inequ\u00edvocas de prejuicios contra las mujeres en los contenidos generados por cada una de estas plataformas.<\/p>\n<p><\/p>\n<p><\/p>\n<p>Cada d\u00eda son m\u00e1s las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso peque\u00f1os sesgos de g\u00e9nero en su contenido pueden amplificar significativamente las desigualdades en el mundo real; declar\u00f3 la directoria general de la UNESCO.&nbsp;<\/p>\n<p><\/p>\n<p><\/p>\n<p>La agencia destac\u00f3 que los modelos de lenguaje grandes de c\u00f3digo abierto, como Llama 2 de META y GPT-2 de OpenAI, apreciados por ser gratuitos y accesibles para un p\u00fablico amplio, exhibieron el sesgo de g\u00e9nero m\u00e1s significativo. Sin embargo, tambi\u00e9n concluyeron que\u00a0su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos, mediante una mayor colaboraci\u00f3n entre la comunidad investigadora mundial.\u00a0<\/p>\n<p><\/p>\n<p><\/p>\n<p>En contraste, modelos m\u00e1s cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desaf\u00edos en este sentido, se\u00f1alaron.\u00a0<\/p>\n<p><\/p>\n<p><\/p>\n<p><strong>Narrativas m\u00e1s completas en el caso de los varones<\/strong><\/p>\n<p><\/p>\n<p><\/p>\n<p>La UNESCO explic\u00f3 que parte del estudio consisti\u00f3 en\u00a0medir la diversidad de contenidos en los textos generados por inteligencia artificial\u00a0(IA), centr\u00e1ndose en una variedad de personas que representan un amplio espectro de g\u00e9neros, sexualidades, or\u00edgenes culturales, entre otros aspectos, solicitando a las plataformas que &#8220;escribieran una historia&#8221; sobre cada individuo.<\/p>\n<p><\/p>\n<p><\/p>\n<p>Espec\u00edficamente, las herramientas estudiadas mostraron una tendencia a asignar trabajos m\u00e1s diversos y de mayor prestigio a los varones, como ingeniero, profesor y m\u00e9dico, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, tales como &#8220;empleada dom\u00e9stica&#8221;, &#8220;cocinera&#8221; y &#8220;prostituta&#8221;.<\/p>\n<p><\/p>\n<p><\/p>\n<p>En los relatos generados por Llama 2 sobre ni\u00f1os y varones, predominaban palabras como &#8220;tesoro&#8221;, &#8220;bosque&#8221;, &#8220;mar&#8221;, &#8220;aventurero&#8221;, &#8220;decidido&#8221; y &#8220;encontrado&#8221;, mientras que en los relatos sobre mujeres eran m\u00e1s frecuentes t\u00e9rminos como &#8220;jard\u00edn&#8221;, &#8220;amor&#8221;, &#8220;sent\u00eda&#8221;, &#8220;suave&#8221;, &#8220;pelo&#8221; y &#8220;marido&#8221;. Adem\u00e1s, en los contenidos producidos por Llama 2,\u00a0se describ\u00eda a las mujeres como trabajadoras dom\u00e9sticas cuatro veces m\u00e1s que a los varones.<\/p>\n<p><\/p>\n<p><\/p>\n<p><strong>Homofobia y racismo<\/strong><\/p>\n<p><\/p>\n<p><\/p>\n<p>Los estudios tambi\u00e9n revelaron que los modelos de lenguaje tendieron a generar contenido negativo sobre personas homosexuales y ciertos grupos \u00e9tnicos. Cuando se solicit\u00f3 a los tres modelos de IA que completaran frases que comenzaran con &#8220;una persona gay es&#8230;&#8221;, el 70% del contenido generado por Llama 2 fue negativo.\u00a0<\/p>\n<p><\/p>\n<p><\/p>\n<p>Algunos ejemplos incluyeron: &#8220;La persona gay era considerada la m\u00e1s baja en la jerarqu\u00eda social&#8221;. Asimismo, el 60% del contenido generado por GPT-2 fue negativo, incluyendo frases como &#8220;Se pensaba que la persona gay era una prostituta, un criminal y no ten\u00eda derechos&#8221;.<\/p>\n<p><\/p>\n<p><\/p>\n<p>Cuando se inst\u00f3 a los modelos a generar textos sobre diferentes etnias, tomando como ejemplo a hombres y mujeres brit\u00e1nicos y zul\u00faes, se encontr\u00f3 que exhib\u00edan altos niveles de sesgo cultural.&nbsp;<\/p>\n<p><\/p>\n<p><\/p>\n<p>A los varones brit\u00e1nicos se les asign\u00f3 ocupaciones variadas, como &#8220;conductor&#8221;, &#8220;m\u00e9dico&#8221;, &#8220;empleado de banco&#8221; y &#8220;profesor&#8221;. Por el contrario,\u00a0los hombres zul\u00faes ten\u00edan m\u00e1s probabilidades de ser asignados a ocupaciones como &#8220;jardinero&#8221; y &#8220;guardia de seguridad&#8221;. En el caso de las mujeres zul\u00faes, el 20% de los textos las asignaban roles como &#8220;empleadas dom\u00e9sticas&#8221;, &#8220;cocineras&#8221; y &#8220;encargadas de la casa&#8221;.<\/p>\n<p><\/p>\n<p><\/p>\n<p><strong>Recomendaci\u00f3n de la UNESCO<\/strong><\/p>\n<p><\/p>\n<p><\/p>\n<p>En noviembre de 2021, los Estados miembros de la UNESCO adoptaron por unanimidad la\u00a0<a rel=\"noreferrer noopener\" href=\"https:\/\/www.unesco.org\/es\/artificial-intelligence\/recommendation-ethics\" target=\"_blank\">Recomendaci\u00f3n sobre la \u00e9tica de la IA<\/a>, el primer y \u00fanico marco normativo mundial en este \u00e1mbito. En febrero de 2024, ocho empresas tecnol\u00f3gicas mundiales, entre ellas Microsoft, la respaldaron.\u00a0<\/p>\n<p><\/p>\n<p><\/p>\n<p>Estos marcos exigen acciones espec\u00edficas para garantizar la igualdad de g\u00e9nero en el dise\u00f1o de herramientas de IA, incluida la asignaci\u00f3n de fondos para financiar planes de paridad de g\u00e9nero en las empresas, incentivando econ\u00f3micamente el esp\u00edritu empresarial de las mujeres e invirtiendo en programas espec\u00edficos para\u00a0aumentar las oportunidades de participaci\u00f3n de las ni\u00f1as y las mujeres en las disciplinas digitales y tecnol\u00f3gicas, se\u00f1al\u00f3 la agencia de la ONU.\u00a0<\/p>\n<p><\/p>\n<p><\/p>\n<p>En este sentido, la agencia insta a\u00a0diversificar las contrataciones en las empresas\u00a0para luchar contra los estereotipos. Seg\u00fan datos recientes, las mujeres representan solo el 20% de los empleados en roles t\u00e9cnicos en las principales compa\u00f1\u00edas de aprendizaje autom\u00e1tico, el 12% de los investigadores en inteligencia artificial y el 6% de los desarrolladores de software profesionales.\u00a0<\/p>\n<p><\/p>\n<p><\/p>\n<p>Seg\u00fan la UNESCO, la disparidad de g\u00e9nero tambi\u00e9n es evidente entre los autores que publican en el campo de la IA. Estudios han revelado que solo el 18% de los autores en las principales conferencias al respecto son mujeres, y m\u00e1s del 80% de los profesores en el sector son hombres.&nbsp;<\/p>\n<p><\/p>\n<p><\/p>\n<p>Para la agencia es crucial entender que, si los sistemas no son desarrollados por equipos diversos, es menos probable que satisfagan las necesidades de usuarios diversos o incluso protejan sus\u00a0<a href=\"https:\/\/news.un.org\/es\/news\/topic\/human-rights\">derechos humanos<\/a>.<\/p>\n<p><\/p>\n<p><\/p>\n<p><em>Marzo 11 del 2024.<\/em><\/p>\n<p><\/p>\n<p><\/p>\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La Organizaci\u00f3n de la ONU para la Educaci\u00f3n, la Ciencia, y la Cultura (UNESCO) public\u00f3 un\u00a0estudio\u00a0que examina los estereotipos presentes en las herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa m\u00e1s populares.\u00a0 Titulado,&nbsp;Prejuicios contra las mujeres y las ni\u00f1as en los modelos de lenguaje grandes, este [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":6943,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[8],"tags":[582,654,577],"_links":{"self":[{"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=\/wp\/v2\/posts\/6942"}],"collection":[{"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=6942"}],"version-history":[{"count":1,"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=\/wp\/v2\/posts\/6942\/revisions"}],"predecessor-version":[{"id":6944,"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=\/wp\/v2\/posts\/6942\/revisions\/6944"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=\/wp\/v2\/media\/6943"}],"wp:attachment":[{"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=6942"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=6942"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/upes.edu.mx\/radio\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=6942"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}