Anuncio

Los algoritmos de las computadoras también pueden ser sectarios. Los científicos tienen ideas diferentes de cómo prevenirlo

Los algoritmos informáticos tradicionales tienden a mostrar un sesgo a favor de los hombres cuando usan los puntajes de los exámenes de ingreso para predecir las calificaciones universitarias de un estudiante.
Los algoritmos informáticos tradicionales tienden a mostrar un sesgo a favor de los hombres cuando usan los puntajes de los exámenes de ingreso para predecir las calificaciones universitarias de un estudiante.
(Alex Brandon / Associated Press)

Los investigadores han ideado un nuevo marco para diseñar algoritmos de aprendizaje que ayudan a evitar que las máquinas inteligentes sean sesgadas.

Share via

Los científicos dicen que han desarrollado una fórmula para hacer que los algoritmos informáticos sean “más seguros” de usar sin crear sesgos basados en la raza, el género u otros factores. El truco, dicen, es hacer posible que los usuarios le digan al algoritmo qué tipo de trampas debe evitar, sin tener que saber mucho sobre estadísticas o inteligencia artificial.

Con esta protección, los hospitales, las empresas y otros usuarios potenciales que sienten desconfianza al utilizar el aprendizaje automático podrían encontrar una herramienta más aceptable para ayudarlos a resolver problemas, según un informe publicado en la edición de esta semana de la revista Science.

Los algoritmos informáticos se utilizan para tomar decisiones en una variedad de entornos, desde tribunales hasta escuelas y sitios de compras en línea. Los programas clasifican grandes cantidades de datos en busca de patrones útiles que puedan aplicarse a decisiones futuras.

Anuncio

Desde fraudes con tarjetas de regalo hasta fraudes en línea, los consumidores están bajo un asalto casi constante en medio de lo que algunos analistas llaman la primera temporada navideña de trillones de dólares de la historia del país.

Pero los investigadores han estado luchando con un problema que se hace cada vez más difícil de ignorar: aunque los programas están automatizados, a menudo proporcionan resultados sesgados.

Por ejemplo, un algoritmo utilizado para determinar las condenas de prisión predijo tasas de reincidencia más altas para los acusados negros declarados culpables de delitos y un menor riesgo para los blancos. Esas predicciones resultaron ser incorrectas, según un análisis de ProPublica.

Inclinaciones como esta a menudo se originan en el mundo real. Un algoritmo utilizado para determinar qué pacientes eran elegibles para un programa de coordinación de atención médica estaba inscribiendo a los pacientes negros en gran medida porque el código se basaba en datos de gastos de salud del mundo real, y los pacientes negros gastaban menos en ellos que los blancos.

Incluso si la información en sí no está parcializada, los algoritmos pueden producir “resultados indeseables, injustos u otros”, dijo Philip Thomas, investigador de inteligencia artificial de la Universidad de Massachusetts-Amherst y autor principal del nuevo estudio.

Resolver qué procesos podrían estar impulsando esos resultados injustos y luego solucionarlos, puede ser una tarea abrumadora para los médicos, hospitales u otros usuarios potenciales que sólo desean una herramienta que los ayude a tomar mejores decisiones.

“Son los expertos en su campo, pero quizá no en el aprendizaje automático, por lo que no deberíamos esperar que tengan un conocimiento detallado de cómo funcionan los algoritmos para controlar el comportamiento de los mismos”, dijo Thomas. “Queremos darles una interfaz simple para definir comportamientos indeseables para su aplicación y luego asegurarnos de que el algoritmo evite ese comportamiento con alta probabilidad”.

Entonces, los informáticos desarrollaron un tipo diferente de algoritmo que permitía a los usuarios definir más fácilmente qué mal comportamiento querían que su programa evitara.

Esto, por supuesto, hace que el trabajo de los diseñadores de algoritmos sea más difícil, dijo Thomas, porque tienen que construir su algoritmo sin saber qué sesgos u otros comportamientos problemáticos no querrá en el programa el usuario final.

“En cambio, tienen que hacer que el algoritmo sea lo suficientemente inteligente como para comprender lo que el usuario dice que es un comportamiento indeseable, y luego razonar por sí solo sobre lo que causaría ese comportamiento, y luego evitarlo con alta probabilidad”, dijo. “Eso hace que el algoritmo sea un poco más complicado, pero mucho más fácil de usar de manera responsable”.

Para probar esta iniciativa, los investigadores lo probaron en un conjunto de datos de puntajes de exámenes de ingreso para 43.303 estudiantes brasileños y los promedios de calificaciones que obtuvieron durante sus primeros tres semestres en la universidad.

Los algoritmos estándar que intentaron predecir el GPA de un estudiante en función de sus puntajes en los exámenes de ingreso fueron sesgados en contra de las mujeres: las calificaciones que pronosticaron para las mujeres fueron más bajas de lo que realmente fueron, y las calificaciones que pronosticaron para los hombres fueron más altas. Esto causó una brecha de error entre hombres y mujeres que promedió 0.3 puntos de GPA, suficiente para hacer una gran diferencia en las perspectivas de admisión de un estudiante.

El nuevo algoritmo, por otro lado, redujo ese rango de error a 0.05 puntos GPA, lo que lo convierte en un predictor mucho más justo del éxito de los estudiantes.

Los científicos informáticos también probaron su marco de datos simulados para pacientes con diabetes. Descubrieron que podía ajustar las dosis de insulina de un paciente de manera más efectiva que un algoritmo estándar, lo que resulta en muchos menos episodios no deseados de hipoglucemia.

Pero otros cuestionaron el nuevo enfoque.

El Dr. Leo Anthony Celi, un intensivista del Centro Médico de Diáconos Beth Israel y científico investigador del MIT, argumentó que la mejor manera de evitar sesgos y otros problemas es mantener a los expertos en aprendizaje automático en el ciclo durante todo el proceso en lugar de limitar sus aportes a las etapas iniciales de diseño. De esa forma pueden ver si un algoritmo se comporta mal y hacer las correcciones necesarias.

“Simplemente no hay forma de evitar eso”, manifestó Celi, quien ayudó a desarrollar un programa de inteligencia artificial para mejorar las estrategias de tratamiento para pacientes con sepsis.

Del mismo modo, los usuarios de primera línea, como médicos, enfermeras y farmacéuticos, deberían tener un papel más activo en el desarrollo de los algoritmos en los que confían, dijo.

La proliferación de identidades falsas en Facebook ha alcanzado un nivel récord.

Los autores del nuevo estudio se apresuraron a señalar que su marco era más importante que los algoritmos que generaban al usarlo.

“No estamos diciendo que estos sean los mejores algoritmos”, dijo Emma Brunskill, científica de la computación de la Universidad de Stanford y autora principal del artículo. “Esperamos que otros investigadores en sus propios laboratorios continúen haciendo mejores algoritmos”.

Brunskill agregó que le gustaría ver que el nuevo marco aliente a las personas a aplicar algoritmos a una gama más amplia de problemas sociales y de salud.

El nuevo trabajo seguramente despertará el debate, y tal vez las conversaciones más necesarias entre las comunidades de atención médica y aprendizaje automático, dijo Celi.

“Si hace que las personas tengan más discusiones, creo que es valioso”, manifestó.

Para leer esta nota en inglés, haga clic aquí

Anuncio