El llenguatge no sexista a la comunicació escrita

Servei de Llengües de la UAB

Archive for agost, 2018

ag. 07 2018

Traducció i sexisme

Posted in General |

Les màquines també tenen prejudicis

Els programes de traducció automàtica perpetuen els biaixos sexistes dominants en cada llenguatge

La Vanguardia       7 Aug 2018        NÚRIA JAR

PATRICK T. FALLON / BLOOMBERG
La presència creixent de dones en professions vinculades a la ciència i l’enginyeria pot ajudar a reduir els biaixos

El traductor de Google i altres sistemes de traducció automàtica estan fets amb algoritmes que s’han anat perfeccionant durant l’últim mig segle. Però malgrat els avenços en processament natural del llenguatge, les màquines no estan lliures d’errors ni d’ideologia. Aquests programes es nodreixen de textos escrits en diferents idiomes per aprendre de les equivalències d’una llengua a l’altra: des de les actes del Parlament Europeu i de l’Organització de les Nacions Unides (ONU) fins als subtítols de pel·lícules, les notícies, l’apèndix de vocabulari de les guies de turisme, els llibres més venuts com la Bíblia i les entrades a Viquipèdia, tot i que els articles variïn d’una llengua a altra.

Tots aquests textos estan escrits originalment per persones que tenen els seus prejudicis i que calen, al seu torn, en els sistemes de traducció. Per exemple, si algú demana al traductor de Google que tradueixi del castellà al turc “ell és mainader” i “ella és doctora”, la marca de gènere de l’espanyol desapareix perquè el turc és un idioma neutre. Però si després un torna a escriure les dues frases resultants en turc per demanar a la mateixa màquina la traducció a l’espanyol, l’algoritme proposa una realitat diferent: “ella és mainadera” i “ell és doctor”. El sentit de la frase ha canviat perquè aquestes màquines funcionen a partir d’observar i extreure la relació més probable entre paraules dels textos de què s’alimenten, en els quals el més freqüent és que un doctor sigui un home, perquè apareix en masculí i acompanyat de l’article determinant el, i que la mainadera sigui una dona.

“Estadísticament correcte no significa correcte. Crec que, si no veiem això com un problema, aquesta qüestió no se solucionarà ni hi haurà cap millora”, denúncia al seu blog Jecelyn Yeen, programadora i directora de la comunitat internacional Women Who Code a Kuala Lumpur (Malàisia). Un equip d’investigadors de la Universitat de Boston (EE.UU.) i del centre d’investigació de Microsoft va advertir fa dos anys en un congrés sobre aquesta disciplina a Barcelona que “l’aplicació cega de l’aprenentatge automàtic corre el risc d’amplificar els biaixos presents en les dades”, ja que els agregadors de notícies presenten estereotips de gènere “preocupants” i fer-ne un ús generalitzat tendeix a amplificar aquests prejudicis.

Les paraules per designar professions pertanyen a un grup en què impera el sexisme. L’anterior equip internacional de científics va elaborar una llista de les ocupacions més masculinitzades i feminitzades a partir d’aparicions en premsa per demostrar el biaix sexista de les màquines.

Entre les feines que habitualment exerceixen dones hi havia infermeres, recepcionistes, perruqueres i netejadores. En canvi, els homes tendeixen a ser vistos com a arquitectes, experts, il·lu-

sionistes i guerrers. Després, els investigadors van demanar a diferents persones que classifiquessin les mateixes professions com a masculines, femenines o neutres per comparar els resultats humans amb els de les màquines. Van veure una correlació òbvia d’estereotips i van proposar un algoritme nou per corregir el biaix de gènere.

“Les màquines aprenen a ser sexistes perquè els textos amb què les entrenes són sexistes”, coincideix a assenyalar Marta Ruiz Costa-Jussà, investigadora Ramón y Cajal del grup de Tec- nologies i Aplicacions del Llenguatge i la Parla (TALP) a la Universitat Politècnica de Catalunya (UPC).

Fins i tot les persones que es dediquen professionalment a la traducció presenten biaixos similars. Maya Busqué, intèrpret de conferències, traductora freelance i membre de l’Associació Professional de Traductors i Intèrprets de Catalunya (Aptic), va fer la prova entre uns quants companys preguntant-los com traduirien una frase de l’anglès a l’espanyol que contenia la paraula scientist (científic/a). Tots van traduir la professió en la seva versió masculina, menys una traductora que va fer una recerca ràpida a internet a partir dels elements de context de l’oració per discernir si era home o dona. “Fugir dels biaixos sexistes i no traduir sistemàticament termes com scientist, researcher i biologist en masculí no em sembla un caprici ni una pèrdua de temps, sinó una necessitat i un acte de justícia”, explica en un article de la revista de l’Associació Espanyola de Traductors, Correctors i Intèrprets.

Més enllà de la qüestió de gènere, els sistemes de traducció automàtica s’enfronten a molts més reptes. Què passa amb les llengües minoritàries? L’anglès domina per sobre de la resta d’idiomes? Qui encadena una pregunta després d’una altra és Anna Dot, una estudiant de doctorat de la Universitat de Vic, on reflexiona sobre com determinats artistes fan servir l’error de la traducció automàtica per crear la seva obra –sovint de denúncia–. “No hem d’ignorar l’error, sinó qüestionar-lo”, planteja la jove investigadora, que considera que molts textos en què es basen les màquines també tenen “una ideologia molt polititzada”, perquè el llenguatge “no és neutral” i està ple de biaixos que corresponen “als grans prejudicis de cada societat”.

De fet, el primer investigador que es va focalitzar únicament en la traducció automàtica, el filòsof, matemàtic i lingüista israelià Yehoshua Bar-Hillel, de l’Institut de Tecnologia de Massachusetts (MIT), ja considerava que cap quantitat de dades no podria ser suficient per resoldre totes les ambigüitats dels textos. “En el llenguatge són habituals les excepcions”, apunta José Adrián R. Fonollosa, catedràtic i investigador del TALP a la UPC, que posa com a exemple una qüestió lingüística d’actualitat: no és el mateix un polític pres que un pres polític.

Encara que molts dels errors s’han solucionat, sobretot a partir de la introducció de tècniques d’aprenentatge profund (deep learning) que imiten les xarxes neuronals, també costa més de traçar els errors per les infinites operacions d’aquests sistemes. “La traducció automàtica sense revisió humana ens condueix a la catàstrofe”, diu Busqué, que defensa el valor de les persones allà on les màquines no pensen.

EL PERILL DE L’AUTOMATITZACIÓ “La traducció sense revisió humana porta a la catàstrofe”, segons la intèrpret M. Busqué

UN EXEMPLE REVELADOR

Els programes tendeixen a associar la medicina als homes i la infermeria a les dones


No hi ha comentaris