El «reconocimiento de emociones» basado en la IA ha sido criticado por ser poco científico
Microsoft va a retirar el acceso público a una serie de herramientas de análisis facial basadas en la IA, incluida una que afirma identificar las emociones de un sujeto a partir de vídeos y fotografías.
Estas herramientas de «reconocimiento de emociones» han sido criticadas por los expertos. Dicen que no sólo las expresiones faciales que se consideran universales difieren entre distintas poblaciones, sino que no es científico equiparar las muestras externas de emoción con los sentimientos internos.
«Las empresas pueden decir lo que quieran, pero los datos son claros», dijo en 2019 Lisa Feldman Barrett, profesora de psicología en la Universidad de Northeastern que realizó una revisión sobre el tema del reconocimiento de emociones impulsado por la IA. «Pueden detectar un ceño fruncido, pero eso no es lo mismo que detectar la ira».
La decisión es parte de una revisión más amplia de las políticas de ética de la IA de Microsoft. Las normas actualizadas de IA responsable de la compañía (esbozadas por primera vez en 2019) hacen hincapié en la responsabilidad de averiguar quién utiliza sus servicios y en una mayor supervisión humana sobre dónde se aplican estas herramientas.
En términos prácticos, esto significa que Microsoft limitará el acceso a algunas funciones de sus servicios de reconocimiento facial (conocidos como Azure Face) y eliminará otras por completo. Los usuarios tendrán que solicitar el uso de Azure Face para la identificación facial, por ejemplo, indicando a Microsoft exactamente cómo y dónde van a desplegar sus sistemas. Algunos casos de uso con un potencial menos dañino (como el desenfoque automático de rostros en imágenes y vídeos) seguirán siendo de libre acceso.
Además de eliminar el acceso público a su herramienta de reconocimiento de emociones, Microsoft también está retirando la capacidad de Azure Face para identificar «atributos como el género, la edad, la sonrisa, el vello facial, el cabello y el maquillaje.»
«Los expertos dentro y fuera de la compañía han destacado la falta de consenso científico sobre la definición de ‘emociones’, los desafíos en cómo las inferencias se generalizan a través de los casos de uso, las regiones y la demografía, y las elevadas preocupaciones de privacidad en torno a este tipo de capacidad», escribió la directora responsable de IA de Microsoft, Natasha Crampton, en una entrada de blog anunciando la noticia.
Microsoft dice que dejará de ofrecer estas funciones a los nuevos clientes a partir de hoy, 21 de junio, mientras que a los clientes existentes se les revocará el acceso el 30 de junio de 2023.
Sin embargo, aunque Microsoft retira el acceso público a estas funciones, seguirá utilizándolas en al menos uno de sus propios productos: una aplicación llamada Seeing AI que utiliza la visión artificial para describir el mundo a las personas con deficiencias visuales.
En una entrada de blog, la principal gerente de producto del grupo de Microsoft para Azure AI, Sarah Bird, dijo que herramientas como el reconocimiento de emociones «pueden ser valiosas cuando se utilizan para un conjunto de escenarios de accesibilidad controlada». No está claro si estas herramientas se utilizarán en otros productos de Microsoft.
Microsoft también está introduciendo restricciones similares en su función Custom Neural Voice, que permite a los clientes crear voces de IA basadas en grabaciones de personas reales (a veces conocidas como deepfake de audio).
La herramienta «tiene un potencial apasionante en la educación, la accesibilidad y el entretenimiento», escribe Bird, pero señala que «también es fácil imaginar cómo podría utilizarse para suplantar a los hablantes y engañar a los oyentes». Microsoft dice que en el futuro limitará el acceso a la función a «clientes y socios gestionados» y «garantizará la participación activa del orador al crear una voz sintética.»