Un robot con tecnología 5G juguetea con uno de las asistentes al Mobile World Congress (MWC). Foto: EFE/AD

MWC 2019: ¿Cómo eliminar el sesgo de la inteligencia artificial?

stop

Responsables de HP, Ericsson y la agencia británica de la ética en la inteligencia artificial debaten sobre si es posible solucionar el sesgo del algoritmo

Alessandro Solís

Economía Digital

Un robot con tecnología 5G juguetea con uno de las asistentes al Mobile World Congress (MWC). Foto: EFE/AD

Barcelona, 26 de febrero de 2019 (15:57 CET)

“La confianza es la diferenciación competitiva de la actualidad”, afirmó la analista jefe de Forrester Research, Jennifer Belissent, al inicio de la conferencia ‘Democratizar la inteligencia artificial y atacar el sesgo del algoritmo’ que ha tenido lugar este martes en el Mobile World Congress (MWC).

Ese anhelo de generar confianza tiene una piedra en el zapato, agregaron otros de los expertos que participaron en la charla. Ejemplos del sesgo algorítmico ha habido muchos en años recientes, como el caso del robot psicópata que se entrenó leyendo comentarios en internet o los inocentes procesados por el uso de la inteligencia artificial en el sistema juidicial estadounidense.

“Los datos nunca son neutrales”

“La ética es la principal preocupación del momento” en el sector tecnológico, explicó Roger Taylor, el presidente de la agencia gubernamental británica que supervisa la deontología de los datos y la innovación. “Y la ética de la inteligencia artificial es un problema central en crecimiento”, agregó.

Pero “este es un problema viejo en un nuevo disfraz”, matizó. Su punto es que los algoritmos necesitan datos, y como los datos “no pueden ser neutrales” debido a que nacen en un contexto social, en realidad hablamos del mismo sesgo de toda la vida. Así las cosas, el prejuicio social en las nuevas tecnologías supone un problema que no se puede entender sin que transcurran “décadas, o incluso siglos”.

Taylor tiró del ejemplo del uso de la inteligencia artificial en el sistema judicial de EEUU para transmitir su idea de que el big data también es parcial. “No hay forma de explicar sensiblemente que las personas negras son más propensas a cometer crímenes”, dijo, pues el sistema estadounidense llegó a esa conclusión cuando intentó determinar el riesgo delictivo de los sospechosos.

Partiendo de la previsión de que estamos a muchos años de encontrar soluciones Taylor y el cuerpo que representa proponen empezar por crear productos y modelos que “sean entendidos estadística y socialmente”, no limitar las explicaciones a los expertos técnicos, entender que este es un problema multidisciplinario y exigir que “las decisiones democráticas sean tomadas por todos” y no solo por informáticos o ejecutivos.

Big data: el balance entre conveniencia y confianza

La vicepresidenta global de big data de Hewlett-Packard, Beena Ammanath, se adhirió a las sugerencias de Taylor. En un auditorio del pabellón 4 de la Fira Gran Via de Barcelona, en el marco del MWC, Ammanath llamó a todas las tecnológicas a “hacer accesible la inteligencia artificial para todos, más allá de los expertos técnicos, porque nos va a afectar a todos”.

La llamada “alfabetización de la inteligencia artificial” fue una de las ideas más repetidas por los expertos de la conferencia. Solo así se podrá aumentar la confianza de los consumidores, dicen. “Las personas están dispuestas a compartir sus datos si sienten que extraen valor de ello”, comentó Belissent.

“Pero si nos decantamos por completo por el factor conveniencia puede llevarnos a una situación peor”, respondió Taylor, defensor de que la regulación también es necesaria para conseguir la confianza. Una idea que no fue compartida por todos sus compañeros de debate cuando respondieron a la pregunta: “¿Quién debe regular al algoritmo, el mercado o el gobierno?”.

"Tienen que ser los dos (el mercado y el gobierno) porque hay una gran brecha tecnológica entre los legisladores", opinó la directora de investigación de Ericsson, Elena Fersman. “Espero que encontremos un entramado regulatorio que sea lo suficientemente flexible”, añadió.

Daniela Braga, la directora de Defined Crowd, un proveedor de “smart data” para desarrolladores de inteligencia artificial, sugirió crear “una organización supragubernamental para redactar las pautas a seguir". La vicepresidenta de inteligencia artificial de la empresa británica de software Sage, Kriti Sharma, concluyó que “el futuro de la sociedad no lo deberíamos decidir solo las geeks, como yo”.

Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad