El sesgo de la IA despierta intereses regulatorios



La IA a menudo se trata como un medio para superar los errores humanos. Pero un algoritmo es tan bueno como los datos con los que se entrena. Las brechas y los sesgos en los datos de entrenamiento pueden hacer que la inteligencia artificial funcione muy mal, incluso para algunos de los gigantes tecnológicos con las capacidades de inteligencia artificial más avanzadas.


La herramienta de reclutamiento impulsada por inteligencia artificial de Amazon supuestamente penalizó los currículums que incluían la palabra "mujeres". Se descubrió que el algoritmo de Google para detectar el discurso de odio en las redes sociales marca de manera desproporcionada los tweets de los usuarios negros antes de que se corrija. Y recientemente, la nueva tarjeta de crédito de Apple ha sido criticada por supuestamente otorgar límites de crédito más altos a los hombres que a las mujeres, lo que provocó una investigación por parte de los reguladores del estado de Nueva York.


A medida que ha aumentado el enfoque en el sesgo de la IA, las empresas de tecnología han publicado cada vez más directrices públicas al respecto. Google compartió sus “Principios de IA” poco después de retirarse del controvertido contrato militar de EE.UU. Proyecto Maven; Los principios de inteligencia artificial de Microsoft defienden las soluciones de inteligencia artificial "que reflejan principios éticos" como la equidad, la inclusión y la privacidad; e IBM nombró al control de sesgos de IA como una de sus “5 en 5” de 2018 (5 innovaciones que cambiarán nuestras vidas en 5 años), citando la importancia de “enseñar a nuestras máquinas sobre nuestros valores comunes”.


Sin embargo, esta autorregulación puede no ser suficiente. En 2019, la participación del gobierno en la regulación de la inteligencia artificial en los EE. UU. Se centró en gran medida en prohibir el uso gubernamental de la tecnología de reconocimiento facial, que en algunos estudios federales se ha demostrado que posee sesgos de raza y género. En mayo, San Francisco se convirtió en la primera ciudad importante de Estados Unidos en prohibir el uso de tecnología de reconocimiento facial por parte del gobierno de la ciudad. Ciudades como Oakland, CA, Berkley, CA y Somerville, MA han instituido prohibiciones similares.


La regulación del sesgo de la IA también ha atraído la atención a nivel federal. En abril, los senadores Wyden y Booker presentaron la "Ley de Responsabilidad Algorítmica de 2019", que autorizaría a la FTC a crear regulaciones sobre el sesgo de la IA, requiriendo que las empresas calificadas identifiquen y reparen algoritmos discriminatorios. En Europa, el gobierno se ha centrado menos en el sesgo de la IA. Pero ciertamente no ha estado completamente ausente. El Reglamento General de Protección de Datos (GDPR), ordenado en 2018, estableció algunas restricciones tempranas sobre ciertos tipos de toma de decisiones automatizadas basadas en datos personales (como algoritmos utilizados en evaluaciones de riesgo de crédito / seguro). Se espera que la regulación del sesgo de la inteligencia artificial aumente en todos los niveles de gobierno, y que las empresas de tecnología puedan tener una ventaja potencial en el cumplimiento mediante la implementación de políticas de sesgo antes de que se apruebe cualquier legislación.

Una estrategia que las empresas pueden seguir es simplemente pautas internas de desarrollo de IA más rigurosas, que incorporan barreras específicas contra los prejuicios.


Las empresas también pueden mirar hacia afuera para adaptarse a la nueva regulación de sesgo de IA, asociándose con nuevas empresas especializadas para desarrollar mejores algoritmos y cumplir con las nuevas regulaciones (como vimos con GDPR y la nueva ley de privacidad de datos de California que entró en vigencia el 1/1/20). Un enfoque podría ser las asociaciones con empresas que proporcionan "datos sintéticos". Estas empresas complementan los "datos reales" potencialmente sesgados con datos sintéticos generados especialmente para superar los sesgos y las lagunas en el conjunto de datos inicial.

Una startup, AI.Reverie, se ha especializado en esta área y tiene como objetivo "ofrecer diversas imágenes y escenarios para ayudar a los algoritmos a generalizar bien y reducir el sesgo". Ya sea que intenten gestionar el sesgo de la IA internamente o mediante asociaciones externas, las empresas de tecnología sin duda deberán adaptar sus estrategias de IA para seguir siendo competitivas y compatibles.

Fuente: CB Insights - 2020 Tech Trends

¿Quieres ser un aliado AEInnova?

¿Necesitas ayuda personalizada?  Contáctanos

© 2020 Developed and designed by AEInnova Team

Av. 6 de Diciembre y Whymper, Quito - Ecuador

  • Facebook
  • Twitter
  • Linkedin