Ara fa tres anys un treballador de Facebook a Nigèria compartia un vídeo on denunciava el mal funcionament d’un dispensador de sabó de sensor òptic. El vídeo mostra com el seu col·lega hi posa la mà a sota i en raja sabó, mentre que quan ho fa ell no passa res. Un detall: ell és negre i el seu company és blanc. D’altres usuaris de pell fosca han denunciat aquest mateix problema en relació a monitors d’activitat, monitors de ritme cardíac i diferents vestibles que fan servir llum rebotada a la pell.
El vídeo té tant d’anecdòtic com de profund: no només mostra el problema d’usabilitat d’un aparell sinó que certifica un cop més la discriminació a la qual ens sotmet la tecnologia.
Tots hem reaccionat amb incredulitat quan hem descobert que el nostre mòbil és capaç d’identificar què i qui surt a les fotos que fem. Si no ho heu fet mai encara feu una cerca a les vostres fotos pel nom d’un objecte qualsevol. De la mateixa manera, si mai heu etiquetat algú en una foto, una cerca pel nom us en mostrarà totes les fotos on hi surt.
Doncs bé, dos anys abans del vídeo del dispensador, un programador negre novaiorquès ja havia denunciat a les xarxes socials que una foto on hi sortien ell i una amiga seva havia estat etiquetada pel sistema Photos de Google amb el terme “goril·la”.
Avui les tecnologies de reconeixement facial, cinc anys després de l’afer de Google, continuen fallant, especialment amb la gent de pell no blanca. Un estudi del 2018 de l’Institut Nacional d’Estàndards i Tecnologia (organisme oficial nord-americà) va avaluar 189 algorismes de 99 empreses, gairebé el 100% de la indústria. Els resultats són demolidors: la quantitat més alta de falsos positius era entre asiàtics, nadius americans i negres, en factors que anaven de les 10 a les 100 vegades el dels blancs caucàsics.
IBM, Microsoft i Amazon són els principals proveïdors d’aquesta tecnologia de policies i agències de seguretat a aquesta banda de la Muralla, i pel que es veu tampoc no han resistit a la pressió del moviment #BlackLivesMatter. IBM ha parat la distribució dels seus productes de reconeixement facial per evitar que s’utilitzin en vigilància massiva o de manera discriminatòria; Jeff Bezos ha anunciat una moratòria d’un any fins a que el el Congrés n’aprovi un codi ètic d’ús i Microsoft ha anunciat que esperarà a una regulació federal abans de vendre la seva tecnologia de reconeixement facial a departaments de policia.
La pressió social de #BlackLivesMatter ha fet que finalment les grans s’adonessin que posar tecnologies discriminatòries en mans de departaments de policia manifestament racistes no era la millor de les idees: #BlackDataMatters.