De la correcció ‘woke’ a manipular la realitat

Avui, , 09-10-2024

Quan Google va llançar el seu model d’intel·ligència artificial Gemini, pocs s’imaginaven que acabaria generant imatges de soldats nazis amb trets asiàtics i víkings negres, tot en un esforç exagerat per evitar estereotips racials. Aquest error va exposar un problema profundament arrelat en la tecnologia: els biaixos dels algorismes de la IA. L’intent de Google de ser inclusiu es va convertir en una distorsió de la realitat històrica, fet que va aixecar una tempesta de crítiques i va posar en dubte la capacitat de les IA per oferir resultats precisos sense caure en l’excés de correcció política. Aquest cas va encendre un debat sobre els perills i les responsabilitats d’entrenar sistemes que poden modelar la nostra percepció del món.

El biaix en les IA no és un fenomen nou. Des dels primers intents de crear sistemes intel·ligents s’ha observat que les màquines aprenen dels humans i, per tant, absorbeixen els nostres prejudicis. En molts casos, aquests biaixos es manifesten en la forma en què la IA processa informació i pren decisions, reproduint i fins i tot amplificant estereotips socials.

L’exemple recent de Gemini, la IA desenvolupada per Google, que oferia resultats que van ser qualificats com a “ofensivament inclusius” en comptes de reflectir la realitat històrica o cultural, va generar una onada de crítiques, tant per part d’usuaris com de figures públiques. Google, davant aquesta crisi, va aturar la generació d’imatges de persones a Gemini per arreglar els problemes identificats.

Prabhakar Raghavan, vicepresident sènior de Google, va admetre en un comunicat que la IA havia “sobrecompensat en excés en alguns casos i havia estat massa conservadora en altres”. Això reflecteix una problemàtica més àmplia en la qual es troben moltes empreses tecnològiques: com garantir que les seves IA siguin justes i equilibrades, sense caure en l’exageració o la distorsió.

La qüestió del biaix no es limita a la raça o al gènere; també es manifesta en l’orientació ideològica de les IA. Això és especialment rellevant en el context polític actual, en què les tensions entre diferents corrents polítics són més intenses que mai. Un dels temes centrals en aquest debat és la percepció que algunes IA, com la mateixa Gemini de Google, tenen una tendència cap a una ideologia més progressista o, com alguns crítics la denominen, “woke”.

El terme woke es refereix a una consciència social i política, particularment en temes relacionats amb la justícia racial i la igualtat de gènere. Tot i que aquesta actitud pot semblar positiva en la superfície, s’ha criticat perquè, en alguns casos, ha portat a una sobreactuació que distorsiona la realitat. Això s’ha vist reflectit en la manera com algunes IA responen a preguntes sobre figures històriques i esdeveniments polítics, en què la IA podria mostrar un biaix cap a una narrativa progressista en detriment d’altres perspectives.

Elon Musk, una figura destacada en la indústria tecnològica i un crític vocal de l’anomenada cultura woke, ha estat un dels més actius a denunciar aquest biaix. Musk ha argumentat que IA com Gemini estan esbiaixades cap a l’esquerra política i que això pot tenir conseqüències perilloses, especialment en un moment en què les IA estan prenent un paper cada vegada més important en la societat. Per això Musk promou la seva IA, Grok, declaradament “incorrecta” i contrària a l’stablishment ideològic de Silicon Valley. La polarització política als Estats Units ha convertit les IA en un camp de batalla de les anomenades “guerres culturals”, en què la lluita per controlar la narrativa és intensa.

David Sacks, cofundador de la firma d’inversió Craft Ventures, sosté que la cultura corporativa de Google és la responsable dels problemes, ja que reflecteix els biaixos inherents de les persones que dissenyen i entrenen els models d’IA. Aquesta afirmació posa de manifest una realitat incòmoda: les IA no són neutrals, sinó que reflecteixen els valors i idees dels humans que les desenvolupen.

Aquesta situació ha portat a una revisió de com s’estan entrenant les IA i de quines mesures es poden prendre per evitar aquests biaixos. Alguns experts han suggerit la necessitat d’una major diversitat en els equips que desenvolupen les tecnologies, així com una supervisió contínua per garantir que els sistemes d’IA es mantenen imparcials i precisos. Tot i això, la complexitat d’aquesta tasca és immensa, ja que els biaixos poden ser subtils i difícils de detectar fins que ja han causat un impacte significatiu.

A banda de la controvèrsia a Occident, altres països també han vist com les seves IA es veien afectades per biaixos i, fins i tot, per censura directa. Un exemple destacat és la Xina, on el govern ha utilitzat la IA per controlar i censurar continguts en línia que consideren subversius o perillosos per a l’estabilitat social. L’ús de la IA com a eina de repressió política.

Un altre cas polèmic va ser el de la IA desenvolupada per Google anomenada Perspective. Aquesta eina es va crear per detectar discurs d’odi en línia, però va ser acusada de racista després que un estudi revelés que tendia a classificar les piulades escrites en “anglès afroamericà” com a més tòxiques que els escrits en anglès estàndard. Els investigadors de la Universitat de Washington van descobrir que Perspective era gairebé el doble de propensa a identificar com a ofensius les piulades escrites per afroamericans, un biaix que té profundes implicacions en la moderació del discurs en línia.

ChatGPT d’OpenAI també va ser criticat per generar respostes racistes i sexistes en les seves primeres versions. El cas va obligar l’empresa a ajustar els models. Això va demostrar que fins i tot les IA més avançades podien amplificar prejudicis si no se supervisen adequadament.

Un estudi de Bloomberg va revelar que les IA usades per generar imatges, com Stable Diffusion i Midjourney, mostraven biaixos significatius en la representació de persones en funcions professionals. Quan es van sol·licitar imatges de persones en professions com metges o advocats, les IA van generar una majoria aclaparadora d’homes blancs, mentre que les dones i les persones de pell fosca eren representades en rols menys prestigiosos o estereotipats.

Texto en la fuente original
(Puede haber caducado)