Login

  



IA de GOOGLE: sesgo racial y polémica socio-política





Thread creado por Illuminauta el 14/08/2019 03:21:56 pm. Lecturas: 26. Mensajes: 8. Favoritos: 0





14/08/2019 03:21:56 pm 
       0                           
El problema de esta IA de Google no gira en torno a ningún sesgo racial, sino a una polémica socio-política



´´La inteligencia artificial desarrollada por Google para detectar el lenguaje de odio parece ser racista´´. Así o en términos muy similares están titulando diversos medios anglosajones en referencia a una investigación académica en torno a Perspective, una IA desarrollada por el Equipo Anti-abusos de Google para otorgar calificaciones de toxicidad a textos online, y que es usada en labores de moderación de debates online por diversas organizaciones, entre ellas el New York Times.

Así dicho, parece la enésima noticia sobre el sesgo racial de una inteligencia artificial (un sesgo que, en la mayoría de los casos, es atribuible más bien a una mala selección de los datos usados para entrenar a las IAs), sin embargo el problema en este caso no reside en ninguna red neuronal ni en ningún dataset, sino en la corrección política.

¿El doble de probabilidad de ser considerado ofensivo si eres afroamericano?

Empecemos por el principio: un equipo de investigadores de la Universidad de Washington, liderado por el estudiante de doctorado especialista en NLP (procesamiento de lenguaje natural) Maarten Sap, ha descubierto que Perspective es el doble de propenso a identificar como discurso de odio tuits escritos en ´´inglés afroamericano´´ o por usuarios que ´´se identifican como afroamericanos´´.

Llegaron a tal conclusión tras analizar dos datasets de textos usados para la detección de discursos de odio en total, más de 100.000 tuits que seres humanos habían etiquetado previamente con etiquetas como discurso de odio, ofensivo o nada.

Los investigadores probaron tanto IAs creadas ex-profeso (y entrenadas con los textos del dataset) como la propia Perspective de Google: en ambos casos en torno a la mitad de los tuits inofensivos que contenían términos propios del inglés afroamericano eran categorizados como ofensivos.

Una prueba posterior, utilizada con un conjunto de datos mucho mayor (54 millones de tuits) y en el que se indicaba la raza de sus autores, evidenció que los afroamericanos eran 15 veces más propensos a ser clasificados como ofensivos.

Maarten Sap y sus compañeros pidieron a voluntarios que categorizaran la toxicidad de otros 1000 tuits, esta vez teniendo en cuenta factores raciales, y el resultado fue una significativa caída de los tuits de afroamericanos marcados como ofensivos.

Matthew Williams, un investigador de la Universidad de Cardiff (Reino Unido) citado por New Scientist, ofrecía como conclusión que ´´debido a que los seres humanos tienen sesgos inherentes, tenemos que asumir que todos los algoritmos están sesgados´´.

¿Debemos exigir a la IA que conozca y aplique nuestra ´´doble vara´´?

¿Cómo es posible esto? ¿De qué manera se infiltran los sesgos humanos en los criterios de clasificación de un algoritmo, sobre todo en uno como Perspective, destinado a identificar -precisamente- discurso de odio? ¿O lo estamos enfocando mal, Perspective funciona perfectamente, y el sesgo está en la valoración de su funcionamiento?

En Observer nos aportan una pista fundamental para entender qué está ocurriendo:

´´Por ejemplo, una publicación en Twitter que rezara ´´Qué pasa, negrata´´ (´´Wassup, nigga´´) tiene una probabilidad del 87% de ser detectada como tóxica, mientras que otro en el que se leyera ´´Qué pasa, bro´´ solamente tiene una probabilidad 4% de ser etiquetado como tóxico´´.

´´Nigga´´ (al igual que el menos coloquial, pero igualmente ofensivo, ´´nigger´´) no sólo constituye la traducción más próxima al término español ´´negrata´´, sino que por el particular trasfondo histórico de los EE.UU., constituye una palabra con una carga sociocultural tan polémica que no es extraño ver cómo los medios estadounidenses la citan, únicamente, como ´´the N-word´´ (´´la palabra con N´´).

Sin embargo, existe una dualidad de criterios a la hora de valorar el uso de esta palabra: si bien recurrir a ella puede llegar a tener consecuencias sociales (y hasta legales) negativas para muchos estadounidenses, se entiende que los miembros de la comunidad afroamericana tienen derecho a usarla de manera habitual, casi como un sinónimo de colega si están dialogando con otro afroamericano. Salvando las distancias, es algo parecido a lo que ocurre en países de habla hispana con el término ´´maricón´´ dentro de la comunidad LGTB.

Es por eso por lo que Sap y su equipo entienden que existe un sesgo contra los afroamericanos en Perspective, si bien se podría afirmar que Perspective aplica aquí un criterio garantista: ante la imposibilidad para la máquina de conocer todo el contexto del tuit, actúa con neutralidad clasificando esos términos, y otros similares, como ofensivos.

Fuente: XATAKA
04 4



14/08/2019 03:43:08 pm 
       2                           
Paulkaraoke


Miembro desde: 24/02/2013

Threads abiertos: 203
Mensajes: 7876  
Subtítulos subidos: 0
Threads Favoritos: 2





alfaktulu escribió:
andai aburrido chuchetumare!!! Te duró la arrancada año y medio hueco año y medio!! Estabamos lo más bien con tu manga de clones flaites y afeminados como vo!! HUECO!!Resume PUTO resume conchetumare!! El copy-paste vale hongo!! Y te faltó poner editado por Putonauta saco weas chanta!!


Ey, puto –con onda– no te entiende ni la inteligencia artificial desarrollada por Google.


14/08/2019 04:20:05 pm 
       1                           
OldLobezno


Miembro desde: 31/10/2017

Threads abiertos: 14
Mensajes: 12098  
Subtítulos subidos: 0
Threads Favoritos: 0





Paulkaraoke escribió:
alfaktulu escribió: andai aburrido chuchetumare!!! Te duró la arrancada año y medio hueco año y medio!! Estabamos lo más bien con tu manga de clones flaites y afeminados como vo!! HUECO!!Resume PUTO resume conchetumare!! El copy-paste vale hongo!! Y te faltó poner editado por Putonauta saco weas chanta!! Ey, puto –con onda– no te entiende ni la inteligencia artificial desarrollada por Google.

El problema es que ni él mismo se entiende


14/08/2019 04:47:31 pm 
       1                           
Telius


Miembro desde: 20/11/2015

Threads abiertos: 178
Mensajes: 4583  
Subtítulos subidos: 0
Threads Favoritos: 0





El problema es que lo que llaman IA son solo estadisticas, y las estadisticas dan que ciertos grupos sociales son mas violentos , como por ejemplo los asesinos seriales son en su grnadisima mayoria hombres blancos.
Negarlo es tapar el sol con el dedo


14/08/2019 06:17:37 pm 
       1                           
BigBoss666


Miembro desde: 11/10/2017

Threads abiertos: 0
Mensajes: 301  
Subtítulos subidos: 0
Threads Favoritos: 0



alfaktulu escribió:
andai aburrido chuchetumare!!! Te duró la arrancada año y medio hueco año y medio!! Estabamos lo más bien con tu manga de clones flaites y afeminados como vo!! HUECO!!Resume PUTO resume conchetumare!! El copy-paste vale hongo!! Y te faltó poner editado por Putonauta saco weas chanta!! border="0" src=img/foro/laugh.gif> border="0" src=img/foro/laugh.gif> border="0" src=img/foro/laugh.gif> border="0" src=img/foro/laugh.gif> border="0" src=img/foro/laugh.gif> border="0" src=img/foro/laugh.gif>

Para ti no existe sesgo racial en absoluto, pues comes chotas negras por segundo. PUTAZO !!




google

1