Sacar dinero en un cajero, abrir una cuen­ta ban­car­ia, pasar un con­trol en un aerop­uer­to, arran­car el coche, entrar en un club pri­va­do, acced­er a nues­tra vivien­da, acti­var el telé­fono móvil, con­tro­lar la asis­ten­cia de alum­nos a una clase … Todo esto puede hac­erse ya con el ros­tro. Bas­ta mirar a una cámara para que cualquier cosa se abra o active.

La tec­nología del reconocimien­to facial está en ple­na expan­sión, pero tam­bién bajo sospecha al sem­brar muchas dudas por el uso que pue­da hac­erse de toda esa infor­ma­ción. Y no todo vale, aler­tan exper­tos en el tema, para per­fec­cionar los algo­rit­mos usa­dos por esa emer­gente y rentable indus­tria.





La últi­ma polémi­ca ha salta­do con Google. La com­pañía tec­nológ­i­ca vuelve a estar en el pun­to de mira tras rev­e­lar una infor­ma­ción del diario The New York Dai­ly News el uso de per­sonas negras sin hog­ar para per­fec­cionar su sis­tema de reconocimien­to facial en dis­pos­i­tivos futur­os, como el telé­fono móvil Pix­el 4. Esos ciu­dadanos sin hog­ar, rev­ela esa infor­ma­ción, eran invi­ta­dos a cam­bio de un cheque rega­lo de cin­co dólares a “prestar” su cara para escanear su ros­tro. Un tra­ba­jo de inves­ti­gación que ten­dría como obje­to ampli­ar la base de datos bio­métri­cos de Google con ras­gos físi­cos de per­sonas negras para que esa tec­nología acierte en los reconocimien­tos de esa raza.

La com­pañía tec­nológ­i­ca ya tuvo prob­le­mas en el 2015 con su sis­tema de reconocimien­to facial de Google Fotos. Con­fundió a una pare­ja de per­sonas negras con gori­las. La expli­cación fue que en la base de datos de ese pro­gra­ma había muy pocos datos bio­métri­cos sobre ras­gos y ros­tros de per­sonas negras. Aho­ra se inten­taría solu­cionar el prob­le­ma amplian­do esa infor­ma­ción (con tra­zos faciales difer­entes a la raza caucási­ca) en los algo­rit­mos de los telé­fonos de últi­ma gen­eración.

Jor­di González, inves­ti­gador del Cen­tre de Visió per Com­puta­dor de la Uni­ver­si­tat Autòno­ma de Barcelona (UAB), apun­ta que la fia­bil­i­dad y éxi­to de “los méto­dos de inteligen­cia arti­fi­cial siem­pre depen­derán de los datos con los que se ali­menten”. Así que en el cam­po del reconocimien­to facial, los datos bio­métri­cos “tienen que ser lo más diver­sos posi­bles para que el sis­tema iden­ti­fique entre las difer­entes razas”. El prob­le­ma “no es nun­ca la tec­nología –insiste González– sino el uso que se hace de la infor­ma­ción obteni­da con la mis­ma”.





En la últi­ma polémi­ca de Google la pre­gun­ta que cabría hac­erse, por lo tan­to, es quién con­tro­la aho­ra la infor­ma­ción obteni­da con el esca­neo de esos ros­tros de per­sonas de col­or sin techo y dónde quedan alma­ce­na­dos esos datos.

La com­pañía tec­nológ­i­ca ya ha anun­ci­a­do que se ha sus­pendi­do esa inves­ti­gación. Google sostiene que la empre­sa con­trató a una fir­ma exter­na para realizar ese tra­ba­jo y que desconocía cómo se esta­ban reca­ban­do esos datos bio­métri­cos. En algu­nas infor­ma­ciones pub­li­cadas en EE.UU. se apun­ta que la elec­ción de esas per­sonas de col­or sin techo bus­ca­ba dos propósi­tos: ampli­ar la infor­ma­ción sobre ros­tros de esos ciu­dadanos de esa raza y ase­gu­rarse, al ser per­sonas sin hog­ar, que la inves­ti­gación pasaría desapercibi­da. Google ase­gu­ra, asimis­mo, que se ha toma­do muy en serio este tema y que lle­gará has­ta el final para aclarar lo ocur­ri­do.





Fuente