Para Francesca Rossi, líder global para IBM en la ética de la inteligencia artificial (AI), avances en la materia deben ser explicables y transparentes. “La AI actual no es imparcial porque se entrena con datos provistos por humanos con prejuicios. Ese sesgo es preocupante porque si queremos una tecnología confiable, no debería favorecer o discriminar a alguien de forma injusta”. Según dijo, la falta de diversidad racial, de cultura y de género produce un desbalance en la tecnología. “En los próximos 5 años será posible entrenar sistemas para que identifiquen prejuicios en los programas. Cuanto más entendamos las imparcialidades, de mejor forma los sistemas pueden ayudar a no actuar injustamente”

No hay comentarios:
Publicar un comentario