Por Telma Luzzani para Sputnik.
¿Hasta qué punto es fiable una predicción de cáncer hecha por una máquina? ¿Quién es responsable de un accidente producido por un vehículo sin conductor? ¿Son neutros los datos que se cargan? "Los datos tienen sesgo discriminatorio de clase, de género y racial", aseguró la experta de reconocimiento internacional, Cecilia Danesi, y explico por qué.
El avance de la inteligencia artificial (IA)corre en paralelo con el debate de sus usos y potencialidades.
Desde Italia donde está terminando su doctorado, Cecilia Danesi, quien creó la cátedra de IA en la carrera de Derecho de la Universidad de Buenos Aires, planteó algunos interrogantes éticos al respecto.
"La información con la cual la IA se diseña y entrena es incorporada, en primera instancia, por los humanos", sostuvo la experta, y el problema de estos datos es que "tienen sesgos" de clase, género y étnicos, es decir, la mayor parte de la información proviene de "hombres blancos de determinado grupo social".
Una vez iniciado el proceso –continuó– la máquina va "aprendiendo de los resultados que obtiene" es por eso que "una IA da una respuesta en un momento y luego puede dar otra. Aprende en esas interacciones", añadió.
Observando lo peligroso que es la falta de regulación actual de la IA, Danesi llamó a abogados, ingenieros y otros profesionales a capacitarse para "ser conscientes de los derechos que se pueden vulnerar". "Hay que reformular –indicó– una base de datos para que sea completa y real".
Luego de dar numerosos ejemplos, advirtió que otro paso fundamental es garantizar "la supervisión del humano en forma permanente" para controlar y adjudicar responsabilidades. Así, la especialista se preguntó acerca de quién responde por un arma robot o un vehículo autónomo.
"¿Las armas autónomas están creadas bajo el derecho internacional humanitario?", cuestionó.
Por Telma Luzzani para Sputnik.