Ira, tristeza y alegría: la inteligencia artificial (IA) ya puede reconocer sentimientos hoy. Hasta ahora, esto se ha utilizado principalmente en publicidad y marketing. Por ejemplo, las cámaras se utilizan para examinar cómo los clientes potenciales interactúan con ciertos productos en el supermercado o en ferias comerciales. Algunas empresas ya están utilizando la inteligencia artificial en las entrevistas de trabajo, Obtenga más información sobre los solicitantes que usan algoritmos.
Los investigadores están trabajando para mejorar estas técnicas y así abrir más áreas de aplicación. En el futuro, por ejemplo, las autoridades policiales y de seguridad podrían confiar en la inteligencia artificial, Por ejemplo, en polígrafos o en cruces fronterizos.
IA racista
Sin embargo, hay un problema: contrariamente a lo que se suele suponer, la IA no es imparcial ni objetiva. Incluso si los algoritmos aprenden, se basan en las ideas de las personas y, por lo tanto, adoptan sus prejuicios. Un ejemplo de ello es la teoría de las emociones básicas del psicólogo Paul Ekman, en la que a menudo se basan conjuntos de datos de algoritmos. Sin embargo, hoy en día esta teoría es controvertida porque no tiene en cuenta las diferencias culturales e individuales.
Los estudios muestran, por ejemplo, que AI hace juicios racistas: en un estudio de jugadores de baloncesto estadounidenses, los jugadores negros fueron acusados con más frecuencia de sentimientos negativos que sus colegas blancos. Otros ejemplos muestran un sesgo sexual en los algoritmos. Por ejemplo, en el proceso de solicitud de Amazon Las mujeres fueron evaluadas más que los candidatos masculinos. En un estudio de miembros del Congreso de los EE. UU., un programa de computadora clasificó a las mujeres como las más amigables y simpáticas.
«Alborotador. Amante de la cerveza. Total aficionado al alcohol. Sutilmente encantador adicto a los zombis. Ninja de twitter de toda la vida».