fbpx

El sesgo de la IA despierta intereses regulatorios

La IA a menudo se trata como un medio para superar los errores humanos. Pero un algoritmo es tan bueno como los datos con los que se entrena. Las brechas y los sesgos en los datos de entrenamiento pueden hacer que la inteligencia artificial funcione muy mal, incluso para algunos de los gigantes tecnológicos con las capacidades de inteligencia artificial más avanzadas.

La herramienta de reclutamiento impulsada por inteligencia artificial de Amazon supuestamente penalizó los currículums que incluían la palabra «mujeres». Se descubrió que el algoritmo de Google para detectar el discurso de odio en las redes sociales marca de manera desproporcionada los tweets de los usuarios negros antes de que se corrija. Y recientemente, la nueva tarjeta de crédito de Apple ha sido criticada por supuestamente otorgar límites de crédito más altos a los hombres que a las mujeres, lo que provocó una investigación por parte de los reguladores del estado de Nueva York.

A medida que ha aumentado el enfoque en el sesgo de la IA, las empresas de tecnología han publicado cada vez más directrices públicas al respecto. Google compartió sus “Principios de IA” poco después de retirarse del controvertido contrato militar de EE.UU. Proyecto Maven; Los principios de inteligencia artificial de Microsoft defienden las soluciones de inteligencia artificial «que reflejan principios éticos» como la equidad, la inclusión y la privacidad; e IBM nombró al control de sesgos de IA como una de sus “5 en 5” de 2018 (5 innovaciones que cambiarán nuestras vidas en 5 años), citando la importancia de “enseñar a nuestras máquinas sobre nuestros valores comunes”.

Sin embargo, esta autorregulación puede no ser suficiente. En 2019, la participación del gobierno en la regulación de la inteligencia artificial en los EE. UU. Se centró en gran medida en prohibir el uso gubernamental de la tecnología de reconocimiento facial, que en algunos estudios federales se ha demostrado que posee sesgos de raza y género. En mayo, San Francisco se convirtió en la primera ciudad importante de Estados Unidos en prohibir el uso de tecnología de reconocimiento facial por parte del gobierno de la ciudad. Ciudades como Oakland, CA, Berkley, CA y Somerville, MA han instituido prohibiciones similares.

La regulación del sesgo de la IA también ha atraído la atención a nivel federal. En abril, los senadores Wyden y Booker presentaron la «Ley de Responsabilidad Algorítmica de 2019», que autorizaría a la FTC a crear regulaciones sobre el sesgo de la IA, requiriendo que las empresas calificadas identifiquen y reparen algoritmos discriminatorios. En Europa, el gobierno se ha centrado menos en el sesgo de la IA. Pero ciertamente no ha estado completamente ausente. El Reglamento General de Protección de Datos (GDPR), ordenado en 2018, estableció algunas restricciones tempranas sobre ciertos tipos de toma de decisiones automatizadas basadas en datos personales (como algoritmos utilizados en evaluaciones de riesgo de crédito / seguro). Se espera que la regulación del sesgo de la inteligencia artificial aumente en todos los niveles de gobierno, y que las empresas de tecnología puedan tener una ventaja potencial en el cumplimiento mediante la implementación de políticas de sesgo antes de que se apruebe cualquier legislación.

Una estrategia que las empresas pueden seguir es simplemente pautas internas de desarrollo de IA más rigurosas, que incorporan barreras específicas contra los prejuicios.

Las empresas también pueden mirar hacia afuera para adaptarse a la nueva regulación de sesgo de IA, asociándose con nuevas empresas especializadas para desarrollar mejores algoritmos y cumplir con las nuevas regulaciones (como vimos con GDPR y la nueva ley de privacidad de datos de California que entró en vigencia el 1/1/20). Un enfoque podría ser las asociaciones con empresas que proporcionan «datos sintéticos». Estas empresas complementan los «datos reales» potencialmente sesgados con datos sintéticos generados especialmente para superar los sesgos y las lagunas en el conjunto de datos inicial.

Una startup, AI.Reverie, se ha especializado en esta área y tiene como objetivo «ofrecer diversas imágenes y escenarios para ayudar a los algoritmos a generalizar bien y reducir el sesgo». Ya sea que intenten gestionar el sesgo de la IA internamente o mediante asociaciones externas, las empresas de tecnología sin duda deberán adaptar sus estrategias de IA para seguir siendo competitivas y compatibles.

Fuente: CB Insights – 2020 Tech Trends

Otras novedades

septiembre 5, 2024

Gaceta agosto 2024
Gaceta agosto 2024

UNIDAD DE EMPRENDIMIENTO  STARTUP MEETING DANEC Junto a nuestro aliado Danec, organizamos la Feria de Vinculación Comercial; un evento en el que reunimos a más de 10 emprendedores que presentaron sus productos (desde alimentos saludables, hasta soluciones tecnológicas) ante potenciales compradores y aliados comerciales. Este espacio facilitó negociaciones directas y abrió nuevas oportunidades de colaboración. […]

Ampliar información

septiembre 3, 2024

Tipti apuesta por los jóvenes con su iniciativa  “Semilleros de Talento”
Tipti apuesta por los jóvenes con su iniciativa “Semilleros de Talento”

La juventud enfrenta desafíos significativos en el mercado laboral global. Según estimaciones de la Organización Internacional del Trabajo (OIT), en 2022 había 73 millones de jóvenes desempleados en todo el mundo. En América Latina el índice de desempleo juvenil sigue siendo muy elevado, en 2022 alcanzó el 20,5 % según la OIT. Según el informe […]

Ampliar información

agosto 15, 2024

Tipti lanza bolsa de empleo con Talento Femenino Tech
Tipti lanza bolsa de empleo con Talento Femenino Tech

Según el Foro Económico Mundial, más del 75% de las empresas incorporarán big data e inteligencia artificial en sus procesos en los próximos cinco años. Se espera que el 75% de las empresas adopten el comercio electrónico y el comercio digital. Las mujeres representan menos de un tercio de la fuerza laboral mundial en campos […]

Ampliar información