La compañía Microsoft ha compartido públicamente su «Estándar de IA responsable«, que incluye sus pautas para construir sistemas de IA. Según los Redmond, Microsoft está publicando el estándar para compartir lo que se ha aprendido y invitar comentarios de otros y contribuir a la discusión sobre la construcción de mejores normas y prácticas en torno a la IA, seguramente está declaración de la compañía tiene algo que ver con lo que paso recientemente con Google y tecnología LaMDA.
Además de publicar el Estándar de IA Responsable, la compañía también ha anunciado que eliminará algunas de las capacidades de su servicio de reconocimiento facial en Azure Face. Las características que se están volviendo a vincular incluyen aquellas que se pueden usar para inferir estados emocionales y atributos de identidad como género, edad, sonrisa, vello facial, cabello y maquillaje.
Microsoft publica su nuevo Estándar de IA para el futuro
Microsoft dice que adoptar un enfoque responsable de la inteligencia artificial significa mantener a las personas y sus objetivos en el centro de las decisiones relacionadas con el diseño. Pero además de esto, también es importante respetar los valores duraderos como la equidad, confiabilidad, seguridad, privacidad, la inclusión, la transparencia y la responsabilidad.
La decisión de bloquear el acceso a algunas de las funciones de reconocimiento facial se ha tomado teniendo esto en cuenta. Cualquiera que se registre para usar el marco ya no tendrá acceso a estas funciones de detección, mientras que los clientes existentes perderán el acceso después del 30 de junio de 2023.
En una publicación de blog que anuncia los cambios, Microsoft dice :
Tomando los estados emocionales como ejemplo, hemos decidido que no proporcionaremos acceso API abierto a la tecnología que puede escanear los rostros de las personas y pretender inferir sus estados emocionales en función de sus expresiones faciales o movimientos. Los expertos dentro y fuera de la empresa han destacado la falta de consenso científico sobre la definición de «emociones», los desafíos en cómo las inferencias se generalizan entre casos de uso, regiones y demografía, y las mayores preocupaciones de privacidad en torno a este tipo de capacidad. También decidimos que necesitamos analizar cuidadosamente todos los sistemas de IA que pretenden inferir los estados emocionales de las personas, ya sea que los sistemas usen análisis facial o cualquier otra tecnología de IA. El objetivo y los requisitos de idoneidad para el propósito en el estándar de IA responsable ahora nos ayudan a realizar evaluaciones de validez específicas del sistema por adelantado.
Estos desafíos del mundo real informaron el desarrollo del estándar de inteligencia artificial responsable de Microsoft y demuestran su impacto en la forma en que diseñamos, desarrollamos e implementamos sistemas de inteligencia artificial.
Finalmente la compañía concluye diciendo que: Futuros mejores y más equitativos requerirán nuevas barreras para la IA. El Estándar de IA responsable de Microsoft es una contribución hacia este objetivo, y la compañía está participando en el trabajo de implementación duro y necesario en toda la empresa.
Los Redmond están comprometidos a ser abiertos, honestos y transparentes en nuestros esfuerzos por lograr un progreso significativo.
Comentarios!
Comentarios