[vc_row][vc_column][vc_column_text][no_toc][/vc_column_text][/vc_column][/vc_row][vc_row css=».vc_custom_1613382681724{background-color: #f1f1f1 !important;}»][vc_column][vc_column_text]En plena era en la que los derechos humanos, particularmente el de la igualdad, han adquirido una importancia fundamental por los múltiples movimiento que reclaman una defensa real de los mismos, la tecnología continúa avanzando y algunos expertos creen que podríamos estar ante una discriminación racial tecnológica.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=»1/2″][vc_column_text]No es la primera vez que se lanza al aire el titular de los algoritmos racistas, pero hoy en nuestro blog queremos indagar un poco más sobre si esto es una realidad, por qué podría producirse y hasta qué punto es posible evitarlo.[/vc_column_text][/vc_column][vc_column width=»1/2″][vc_single_image image=»141047″ img_size=»large» alignment=»center»][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Hace algún tiempo, el ingeniero Arcieri publicó dos fotografías que ponían en entredicho al algoritmo de Twitter. De hecho, el tweet se hizo viral y a partir del mismo surgieron varios reportajes, entrevistas y cobertura de informaciones similares en las que se debatía sobre el asunto a finales del año pasado.
Ahora que aquella viralidad deja paso a un análisis más calmado, analizamos si ese supuesto racismo es real.[/vc_column_text][vc_single_image image=»141012″ img_size=»large» style=»vc_box_shadow_3d»][/vc_column][/vc_row][vc_row][vc_column][vc_custom_heading text=»Algoritmos racistas vs información sesgada» use_theme_fonts=»yes»][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Una de las cuestiones que más controversia genera entre los que defienden que no tiene sentido alguno hablar de algoritmos racistas y que bien puede ser un razonamiento objetivo es que solo los humanos tienen capacidad para comportarse de un modo u otro, y por ende, para tener comportamientos racistas o no tenerlos.
Sin embargo, los algoritmos no cuentan con esa habilidad, puesto que en la actualidad, incluso aquellos que funcionan con Inteligencia Artificial se basan en una serie de datos masiva que introducen personas.[/vc_column_text][vc_message icon_fontawesome=»far fa-lightbulb»]Lo que muchos defienden como correcto a la hora de debatir este tema es hablar de información sesgada en la programación del algoritmo que puede generar selecciones o resultados racistas, y no de algoritmos racistas como tal.[/vc_message][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Puede que todo cobre mayor claridad si empezamos a comprender este tema desde el inicio. La pregunta de ¿qué es un algoritmo? es probablemente la clave.
El diccionario señala:
“Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas”.
¿Pueden ser las operaciones matemáticas racistas? Lo cierto es que difícilmente, porque los cálculos no distinguen entre cualidades de las personas, de hecho, esa materia queda completamente fuera de su estudio que son los números.
Así parece que los que señalan que es impreciso y confuso hablar de algoritmos racistas llevan razón.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Indagando más allá, los algoritmos que actualmente se utilizan con inteligencia artificial se basan en una especie de aprendizaje automático. El mismo sigue un patrón diseñado por humanos en los que se le indica a la máquina qué patrones debe seguir, proporcionándole ejemplos iniciales que luego la máquina utiliza para “aprender” y proseguir en los resultados. [/vc_column_text][vc_message message_box_color=»danger» icon_fontawesome=»fas fa-exclamation-circle»]El problema está en esa fase inicial de selección que lleva al ordenador a incidir en un sesgo que luego repite a lo largo del proceso de “autoaprendizaje”.[/vc_message][/vc_column][/vc_row][vc_row][vc_column][vc_custom_heading text=»Sesgos en los algoritmos con resultados de racismo ¿cómo evitarlos?» use_theme_fonts=»yes»][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Todo parece indicar que el problema de los sesgos raciales está en la selección inicial de los datos y de las premisas para que la máquina distinga entre los mismos. Por tanto, las mejoras a implementar deben basarse en esos dos factores: el humano y el de la ampliación de los supuestos tras un análisis de los problemas que se han generado previamente.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_custom_heading text=»Amazon AI: buscando soluciones tecnológicas a los sesgos que provocan racismo» font_container=»tag:h3|text_align:left» use_theme_fonts=»yes»][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Obviamente, los gigantes tecnológicos son conscientes de la importancia que tiene desarrollar soluciones innovadoras que impidan estos sesgos raciales. Uno de los que ha anunciado públicamente una herramienta específica para solventarlos es Amazon.
Concretamente en el departamento de inteligencia artificial (Amazon IA), su vicepresidente Swami Sivasubramanian adelantó que ya estaban implementando la herramienta SageMaker Clarify. Al parecer, se trata de un recurso que permite a los que trabajan en el diseño de los datos que se entregan al algoritmo detectar posibles perjuicios en los mismos que luego inciden en el entrenamiento posterior. De esta manera, se reducirían los resultados que generan situaciones de racismo. [/vc_column_text][vc_single_image image=»141026″ img_size=»large» style=»vc_box_shadow_3d»][/vc_column][/vc_row][vc_row][vc_column width=»2/3″][vc_column_text]A todo ello hay que añadir que algunas otras compañías buscan trabajar también en el factor humano. Considerando que los errores se derivan de esa primera selección de datos, y que la misma se hace por humanos, se debe mejorar la formación de los recursos humanos de la empresa para que comprendan qué deben cambiar, omitir u añadir para evitar los errores que luego reproduce la máquina.[/vc_column_text][vc_column_text]Probablemente el asunto de los algoritmos con sesgos raciales no sea un tema preocupante en la pyme actual porque todavía no han alcanzado cuotas de digitalización en las que la inteligencia artificial se encargue de procesos de comunicación u otros procesos en los que las personas tienen un papel relevante.[/vc_column_text][vc_column_text]Pero vistos los avances en la digitalización que se han vivido en la última década, y la relevancia que tiene la igualdad en los planes de responsabilidad social corporativa, se estima que pronto toda esa tecnología que hoy está naciendo sea de uso común incluso en empresas de dimensiones más reducidas.[/vc_column_text][/vc_column][vc_column width=»1/3″][vc_single_image image=»141051″ img_size=»large» add_caption=»yes»][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Fuente: https://diarioti.com/nueva-herramienta-de-aws-busca-mitigar-prejuicios-en-ia/115176, IMAGEN: Anthony Choren[/vc_column_text][/vc_column][/vc_row]